Suite

Densité des données LiDAR, retours par mètre carré


Comment puis-je calculer un raster indiquant le nombre de points de retour par mètre carré à l'aide de SAGA GIS ou d'un autre logiciel open source ?

Mon objectif est d'obtenir un masque qui me montrerait les endroits (cellules) où il n'y a pas eu de résultats et m'aiderait à interpréter les données dérivées du LiDAR.


Je développe un SIG gratuit et open source appelé Whitebox Geospatial Analysis Tools (téléchargeable ici) qui dispose de fonctionnalités d'analyse étendues pour le traitement des données LiDAR. Whitebox contient un outil spécifiquement pour calculer la densité de points des fichiers LiDAR LAS appelé LiDAR à densité de points.

L'outil est très spécifique au LiDAR, prenant un ou plusieurs fichiers LAS en entrée. Il peut également calculer la densité des points de premier retour uniquement, des points de dernier retour uniquement ou de tous les retours. De plus, si vos données LiDAR contiennent des informations de classification, vous pouvez éventuellement exclure des points en fonction de leur type de classification (par exemple, des bâtiments ou des points de végétation).

Il existe un deuxième outil, appelé Hex-binning, qui effectuera également une analyse de type densité sur les fichiers LAS (ShapeFiles de type Point également), mais produira une grille hexagonale vectorielle (ShapeFile). Cela peut être un moyen très efficace de visualiser une couverture de points à haute densité (voir le blog sur le binning hexadécimal ici).


Vous aimeriez peut-être utiliser Fusion. C'est un logiciel gratuit pour le traitement et la visualisation des nuages ​​de points.

1- Recherchez dans le manuel un programme de commande appeléCatalogue. Il renvoie des statistiques descriptives à partir du nuage de points.

Ce que vous voulez, c'est le commutateur du cataloguedensité:surface,min,max. La description du manuel dit :

Crée une image pour tous les fichiers de données qui montre la densité de retour pour la zone représentée par chaque pixel. area est la zone de pixels, min est la densité de points minimale acceptable par unité de surface et max est la limite supérieure de la plage de densité acceptable. Les cellules avec des densités de points comprises dans la plage min-max sont colorées en vert, les cellules avec des densités de points inférieures au minimum sont colorées en rouge et les cellules avec des densités supérieures au maximum sont colorées en bleu.

Vous devez définir le minimum et le maximum en conséquence afin de mettre en évidence les informations souhaitées. Par exemple : si vous voulez voir les pixels où il y avait moins d'un retour, définissez min égal à 1. Les pixels avec moins d'un retour par mètre carré apparaîtront en rouge.

La ligne de commande serait similaire à la suivante, en considérant des pixels de 5 mètres (25 m²).

Catalogue /densité:25,1,5 pointcloud.las

Si vous avez besoin de plus d'aide pour exécuter cette ligne de commande, j'ai fourni ici un exemple détaillé à ce sujet.

C'est lecatalogue / densitésortie, extraite d'un exemple de données fourni par Fusion :


L'image RVB de la scène ci-dessus peut être vue ici.

2- Il existe une autre option, plus flexible que Catalogue.

Utilisez la commandeGridMetricspour extraire le nombre de retours par pixel. Définissez la taille du pixel de la manière la plus appropriée pour l'analyse. La sortie sera un fichier de valeurs séparées par des virgules (csv) où chaque ligne correspondra à un pixel.

Exemple (avec une taille de pixel égale à 5) :

gridmetrics /noground /nointensity 2 5 4800K_gridmetrics lda_4800K_data.las

/pas de solest un commutateur utilisé avec des ensembles de données normalisés,/non-intensitéest un commutateur pour ne pas générer de statistiques d'intensité LiDAR (accélérera le traitement), et2est la coupure de hauteur pour le calcul des statistiques de couverture.

Ensuite, utilisez la commandeCSV2Gridpour transformer le fichier .csv en un fichier au format raster ASCII (.asc), et vous pourrez l'ouvrir dans différents logiciels SIG.

Exemple (où la variable d'intérêt 'nombre total de retours' était dans la colonne 5 de la précédentegridmetricsproduction):

csv2grid 4800K_gridmetrics_all_returns_elevation_stats.csv 5 4800K_return_per_pixel.asc


Pour vérifier le nombre de points par cellule de grille à partir d'un nuage de points LIDAR dans GRASS, vous pouvez utiliser ler.in.xyzmodule. Ce module crée une grille à partir du nuage de points à l'aide d'un paramètre "méthode" par lequel vous choisissez comment agréger les points lors de l'importation. Si tu choisisméthode=nalors le raster résultant contiendra un nombre de points pour chaque cellule. En définissantméthode=moyennevous obtenez la valeur moyenne des points dans chaque cellule de la grille.

Plus de détails sur la page de traitement LIDAR du Wiki GRASS.


Réglage du volume du champ de vision du capteur de véhicule

Un exemple de procédé consiste à recevoir, à partir d'un ou plusieurs capteurs associés à un véhicule autonome, des données de capteur associées à un objet cible dans un environnement du véhicule pendant une première condition environnementale, où au moins un capteur du ou des capteurs est configurable pour être associé à l'un d'une pluralité de volumes de champ visuel de fonctionnement. Le procédé comprend également, sur la base des données du capteur, la détermination d'au moins un paramètre associé à l'objet cible. Le procédé comprend également la détermination d'une dégradation du ou des paramètres entre les données de capteur et les données de capteur passées, les données de capteur passées étant associées à l'objet cible dans l'environnement pendant une seconde condition environnementale différente de la première et, sur la base de la dégradation, ajuster le volume du champ de vision opérationnel du au moins un capteur à un autre des volumes du champ de vision opérationnel.

La présente divulgation revendique la priorité sur la demande provisoire américaine n° 62/952 879 déposée le 23 décembre 2019, dont l'intégralité du contenu est incorporée ici à titre de référence. La présente divulgation est également liée à la demande de brevet US Ser. n° 17/002.092, déposé le 25 août 2020, qui revendique la priorité sur la demande provisoire américaine n° 62/952 879. L'intégralité du contenu de la demande de brevet américain Ser. N° 17/002.092 sont incorporés ici à titre de référence.

Les véhicules peuvent être configurés pour fonctionner en mode autonome dans lequel le véhicule navigue dans un environnement avec peu ou pas d'intervention du conducteur. De tels véhicules autonomes peuvent comprendre un ou plusieurs systèmes (par exemple, des capteurs et des dispositifs informatiques associés) qui sont configurés pour détecter des informations sur l'environnement dans lequel le véhicule fonctionne. Le véhicule et son contrôleur implémenté par ordinateur associé utilisent les informations détectées pour naviguer dans l'environnement. Par exemple, si le ou les systèmes détectent que le véhicule s'approche d'un obstacle, comme déterminé par le contrôleur implémenté par ordinateur, le contrôleur ajuste les commandes directionnelles du véhicule pour amener le véhicule à contourner l'obstacle.

Par exemple, un véhicule autonome peut inclure des lasers, un sonar, un radar, des caméras, des imageurs thermiques et d'autres capteurs qui scannent et/ou enregistrent des données sur l'environnement du véhicule. Les données des capteurs d'un ou plusieurs de ces appareils peuvent être utilisées pour détecter des objets et leurs caractéristiques respectives (position, forme, cap, vitesse, etc.). Cette détection et cette identification sont utiles pour le fonctionnement des véhicules autonomes.

Dans un exemple, la présente divulgation propose un procédé. Le procédé consiste à recevoir, d'un ou plusieurs capteurs associés à un véhicule autonome, des données de capteur associées à un objet cible dans un environnement du véhicule autonome pendant une première condition environnementale, où au moins un capteur du ou des capteurs est configurable pour être associé à l'un d'une pluralité de volumes de champ de vision opérationnel, et dans lequel chaque volume de champ de vision opérationnel représente un espace dans lequel le au moins un capteur est censé détecter des objets à l'extérieur du véhicule autonome à un niveau de confiance minimum. Le procédé comprend également, sur la base des données du capteur, la détermination d'au moins un paramètre associé à l'objet cible. Le procédé comprend également la détermination d'une dégradation du au moins un paramètre entre les données de capteur et les données de capteur passées, les données de capteur passées étant associées à l'objet cible dans l'environnement pendant une seconde condition environnementale différente de la première condition environnementale. Le procédé comprend également, sur la base de la dégradation déterminée du au moins un paramètre, l'ajustement du volume de champ de vision opérationnel du au moins un capteur à un autre de la pluralité de volumes de champ de vision opérationnel.

Dans un autre exemple, la présente divulgation propose un système pour contrôler le fonctionnement d'un véhicule autonome. Le système comprend un ou plusieurs capteurs, où au moins un capteur du ou des capteurs est configurable pour être associé à l'un d'une pluralité de volumes de champ de vision opérationnel, et dans lequel chaque volume de champ de vision opérationnel représente un espace dans lequel le au moins un capteur est censé détecter des objets à l'extérieur du véhicule autonome à un niveau de confiance minimum. Le système comprend également un ou plusieurs processeurs couplés au ou aux capteurs. Le système comprend également une mémoire couplée au ou aux processeurs et sur laquelle sont stockées des instructions qui, lors de l'exécution par le ou les processeurs, amènent le ou les processeurs à effectuer des opérations. Les opérations consistent à recevoir, à partir du ou des capteurs, des données de capteur associées à un objet cible dans un environnement du véhicule autonome pendant une première condition environnementale. Les opérations comprennent également, sur la base des données du capteur, la détermination d'au moins un paramètre associé à l'objet cible. Les opérations comprennent également la détermination d'une dégradation du au moins un paramètre entre les données de capteur et les données de capteur passées, les données de capteur passées étant associées à l'objet cible dans l'environnement pendant une seconde condition environnementale différente de la première condition environnementale. Les opérations comprennent également, sur la base de la dégradation déterminée du au moins un paramètre, l'ajustement du volume de champ de vision opérationnel du au moins un capteur à un autre de la pluralité de volumes de champ de vision opérationnel.

Dans un autre exemple, la présente divulgation propose un support de stockage lisible par ordinateur non transitoire, sur lequel sont stockées des instructions de programme qui, lors de l'exécution par un ou plusieurs processeurs, amènent le ou les processeurs à effectuer des opérations. Les opérations consistent à recevoir, à partir d'un ou plusieurs capteurs associés à un véhicule autonome, des données de capteur associées à un objet cible dans un environnement du véhicule autonome pendant une première condition environnementale, où au moins un capteur du ou des capteurs est configurable pour être associé à l'un d'une pluralité de volumes de champ de vision opérationnel, et dans lequel chaque volume de champ de vision opérationnel représente un espace dans lequel le au moins un capteur est censé détecter des objets à l'extérieur du véhicule autonome à un niveau de confiance minimum. Les opérations comprennent également, sur la base des données du capteur, la détermination d'au moins un paramètre associé à l'objet cible. Les opérations comprennent également la détermination d'une dégradation du au moins un paramètre entre les données de capteur et les données de capteur passées, les données de capteur passées étant associées à l'objet cible dans l'environnement pendant une seconde condition environnementale différente de la première condition environnementale. Les opérations comprennent également, sur la base de la dégradation déterminée du au moins un paramètre, l'ajustement du volume de champ de vision opérationnel du au moins un capteur à un autre de la pluralité de volumes de champ de vision opérationnel.

Ceux-ci ainsi que d'autres aspects, avantages et alternatives deviendront apparents à l'homme du métier à la lecture de la description détaillée suivante, en référence le cas échéant aux dessins annexés.

BRÈVE DESCRIPTION DES CHIFFRES

FIGUE. 1 est un schéma fonctionnel illustrant les aspects d'un exemple de véhicule autonome.

FIGUE. 2 représente une vue extérieure d'un exemple de véhicule autonome.

FIGUE. 3 est une illustration conceptuelle de la communication sans fil entre divers systèmes informatiques liés à un véhicule autonome.

FIGUE. 4 illustre un exemple d'ensemble de champ de vision de capteur.

FIGUE. 5 illustre un exemple de méthode.

FIGUES. 6A et 6B illustrent des exemples d'images utilisées pour régler un volume de champ de vision opérationnel d'au moins un capteur.

FIGUES. 7A et 7B représentent des exemples d'images utilisées pour régler un volume de champ de vision opérationnel d'au moins un capteur.

DESCRIPTION DÉTAILLÉE

Des exemples de procédés, de dispositifs et de systèmes sont décrits ici. Il doit être compris que les mots « exemple » et « exemplaire » sont utilisés ici pour signifier « servir d'exemple, d'exemple ou d'illustration ». Tout mode de réalisation ou caractéristique décrit ici comme étant un « exemple » ou « exemplaire » ne doit pas nécessairement être interprété comme étant préféré ou avantageux par rapport à d'autres modes de réalisation ou caractéristiques. D'autres modes de réalisation peuvent être utilisés, et d'autres modifications peuvent être apportées, sans s'écarter de la portée du sujet présenté ici.

Ainsi, les exemples de réalisation décrits ici ne sont pas censés être limitatifs. Des aspects de la présente divulgation, tels que décrits de manière générale ici et illustrés sur les figures, peuvent être agencés, substitués, combinés, séparés et conçus dans une grande variété de configurations différentes, qui sont toutes envisagées ici.

En outre, sauf indication contraire du contexte, les caractéristiques illustrées dans chacune des figures peuvent être utilisées en combinaison les unes avec les autres. Ainsi, les figures doivent être généralement considérées comme des aspects constitutifs d'un ou plusieurs modes de réalisation globaux, étant entendu que toutes les caractéristiques illustrées ne sont pas nécessaires pour chaque mode de réalisation.

De nombreux véhicules comprennent divers systèmes de détection pour faciliter la navigation et le contrôle du véhicule. Certains véhicules peuvent fonctionner en mode entièrement autonome, où aucune interaction humaine n'est utilisée pour les opérations, un mode semi-autonome, où peu d'interaction humaine est utilisée pour les opérations, ou un mode actionné par l'homme, où un humain fait fonctionner le véhicule et les capteurs peuvent aider l'humain. Les capteurs peuvent être utilisés pour fournir des informations sur la région autour du véhicule. Ces informations peuvent être utilisées pour identifier les caractéristiques de la chaussée et d'autres objets (tels que d'autres véhicules, piétons, etc.) à proximité du véhicule.

Les systèmes de capteurs d'un véhicule peuvent comprendre, par exemple, un système de détection et de télémétrie par la lumière (lidar) et un système radar. lidar utilise des impulsions laser pour mesurer la distance et la vitesse des objets qui reflètent la lumière laser. Le radar utilise des ondes radio pour mesurer la distance et la vitesse des objets qui reflètent les ondes radio. Les données des systèmes lidar et radar peuvent être utilisées, éventuellement avec des données d'autres capteurs du système de capteurs du véhicule, tels que des caméras, pour déterminer où se trouvent les objets dans un environnement autour du véhicule. Un capteur lidar, un capteur radar et/ou une caméra particuliers peuvent chacun avoir un champ de vision. Le champ de vision d'un capteur peut comprendre une ou plusieurs régions angulaires sur lesquelles le capteur peut détecter des objets et une plage associée qui correspond à une distance maximale du capteur à laquelle le capteur peut détecter de manière fiable des objets dans ce champ de vision. Dans certains cas, la plage associée peut varier pour divers angles d'azimut/d'élévation dans le champ de vision. Ensemble, les valeurs des paramètres qui définissent ce champ de vision, par exemple les valeurs de distance, d'azimut et d'élévation, forment un volume qui peut être appelé volume de champ de vision ou volume de champ de vision opérationnel.

Le volume du champ de vision opérationnel d'un capteur particulier peut être considéré comme une représentation précise d'un espace dans lequel le capteur particulier peut être supposé détecter des objets à l'extérieur du véhicule autonome à un niveau de confiance minimum (par exemple, un niveau de confiance indiquant une confiance élevée). En d'autres termes, un ou plusieurs processeurs du système du véhicule (par exemple, une puce qui contrôle le fonctionnement du capteur, ou un processeur du système de contrôle du véhicule) peuvent être configurés pour s'appuyer en toute confiance sur les données du capteur acquises dans l'espace défini par le capteur volume du champ de vision opérationnel. Par exemple, un processeur associé au capteur particulier peut être configuré pour associer un niveau de confiance plus élevé (par exemple, supérieur à un niveau de seuil de confiance prédéfini) aux objets ou à d'autres informations détectées à une distance, un azimut et/ou une élévation dans le cadre de fonctionnement de ce capteur. volume du champ de vision, et peut être configuré pour associer un niveau de confiance inférieur (par exemple, égal ou inférieur au niveau de seuil de confiance prédéfini) aux objets ou à d'autres informations détectées à une distance, un azimut et/ou une élévation en dehors de ce champ de fonctionnement du volume de vue.

Un véhicule peut être exposé à des conditions variables pendant son fonctionnement, telles que des changements de temps (par exemple, du brouillard, de la pluie, de la neige), des changements d'heure, des changements de limite de vitesse, des changements de terrain ou d'autres conditions géographiques, des changements dans le règlement (par exemple, urbain, suburbain, rural), des changements dans le nombre d'autres véhicules ou objets à proximité du véhicule, d'autres changements externes au véhicule et/ou des changements internes aux systèmes du véhicule (par exemple, erreurs de capteur, propreté de la surface du capteur, défauts du sous-système du véhicule, etc.). À tout moment, une ou plusieurs de ces conditions ou d'autres peuvent être présentes dans l'environnement de fonctionnement du véhicule. Dans le contexte de la présente divulgation, un « environnement de fonctionnement » d'un véhicule peut être ou inclure une ou plusieurs conditions internes et/ou externes au véhicule qui peuvent changer au fil du temps, y compris, mais sans s'y limiter, les conditions décrites ci-dessus et d'autres conditions. décrit ailleurs dans cette divulgation. Ainsi, lorsqu'une ou plusieurs de ces conditions changent, l'environnement de fonctionnement du véhicule peut changer.

Dans certains modes de réalisation, le volume du champ de vision opérationnel pour au moins l'un des capteurs du véhicule peut être ajusté sur la base d'un domaine de conception opérationnelle (ODD) pour le véhicule. Un ODD est défini par ou inclut les conditions dans lesquelles un véhicule donné ou un autre système d'automatisation de la conduite ou une caractéristique de celui-ci est spécifiquement conçu pour fonctionner, y compris, mais sans s'y limiter, les restrictions environnementales, géographiques et horaires, et/ou la présence ou l'absence requise de certaines caractéristiques du trafic ou de la chaussée. Un véhicule peut avoir plusieurs ODD, dont chacun peut inclure au moins l'un parmi une condition environnementale, une condition géographique, une condition d'heure, une condition de circulation ou une condition de route. Le système du véhicule peut à un moment donné associer le véhicule à un premier ODD, amenant ainsi le système du véhicule à fonctionner d'une manière particulière qui correspond au premier ODD. Plus tard, le système du véhicule peut détecter un changement dans l'environnement d'exploitation du véhicule, auquel cas le système du véhicule peut associer en réponse le véhicule à un deuxième ODD différent, provoquant ainsi le fonctionnement du système du véhicule d'une manière différente qui correspond au deuxième ODD.

Un capteur particulier peut être configurable pour être associé à l'un d'une pluralité de volumes de champ de vision de fonctionnement.La pluralité de volumes de champ de vision opérationnel peut être unique au capteur particulier, ou peut être associée à une pluralité de capteurs du même type (par exemple, lidar, caméra ou radar).

Dans certains exemples, la pluralité de volumes de champ visuel d'exploitation peut être un nombre fini/prédéterminé de volumes de champ visuel d'exploitation, chacun pouvant être mappé dans la mémoire du système du véhicule (par exemple, dans une table) à un environnement d'exploitation correspondant et /ou IMPAIR. De plus ou en variante, un ou plusieurs de la pluralité de volumes de champ de vision de fonctionnement pour un capteur particulier ou une pluralité de capteurs peuvent être déterminés en temps réel en réponse à une condition de déclenchement (par exemple, un changement dans l'environnement de fonctionnement). De plus ou en variante, tout champ de fonctionnement prédéterminé des volumes de vision associé à un capteur particulier ou à une pluralité de capteurs peut être comparé aux données de capteur nouvellement acquises pour déterminer si le champ de fonctionnement prédéterminé des volumes de vision représente toujours avec précision le degré auquel le ou les capteurs ) doit être utilisé pour un environnement d'exploitation particulier.

Quelques exemples de procédés et de systèmes pour ajuster le volume du champ de vision opérationnel d'un capteur sur la base de l'environnement de fonctionnement du véhicule autonome (par exemple, sur la base du système du véhicule détectant l'environnement de fonctionnement ou détectant un changement d'un environnement de fonctionnement à un autre), comme ainsi que quelques exemples de procédés et de systèmes pour associer le véhicule à un ODD particulier basé sur l'environnement de fonctionnement du véhicule autonome, sont décrits dans la demande de brevet US Ser. n° 17/002.092, dont l'intégralité est incorporée ici à titre de référence.

La présente invention concerne des systèmes et des procédés pour régler le volume du champ de vision opérationnel d'un ou plusieurs capteurs du véhicule à l'aide de paramètres associés à des objets cibles reconnaissables dans l'environnement du véhicule et pouvant être déterminés à partir des données de capteur associées aux objets cibles. En particulier, un changement d'une première condition environnementale (par exemple, temps clair) à une seconde condition environnementale (par exemple, temps brumeux ou neigeux) peut entraîner la dégradation d'au moins un de ces paramètres. Les systèmes et procédés décrits utilisent ainsi la dégradation du ou des paramètres comme base pour ajuster le volume de champ de vision opérationnel d'au moins un des capteurs du véhicule à un autre de la pluralité de volumes de champ de vision opérationnel, de manière à pour faire fonctionner le véhicule en utilisant un volume de champ de vision opérationnel qui représente avec précision l'espace dans lequel le ou les capteurs peuvent détecter en toute confiance des objets lorsque la deuxième condition environnementale est présente. Les procédés décrits peuvent se produire en temps réel ou en temps quasi réel lorsque le système du véhicule compare les données de capteur nouvellement acquises associées à l'objet cible aux données de capteur passées associées à l'objet cible.

A titre d'exemple, un capteur lidar du véhicule peut avoir un volume de champ de vision opérationnel pour une utilisation par temps clair et pendant la journée, et ce volume de champ de vision opérationnel peut inclure une portée de 200 mètres ou plus. Dans ces conditions environnementales, le véhicule peut déterminer une intensité lidar à partir de faisceaux laser réfléchis par un objet cible au loin, tel qu'un poteau téléphonique. Plus tard, cependant, lors de conditions de brouillard dense pendant la journée, l'intensité lidar du même objet cible pourrait se dégrader. Sur la base de cette dégradation, le système du véhicule pourrait ajuster le volume de champ de vision opérationnel d'au moins un des capteurs lidar du véhicule à un volume de champ de vision opérationnel qui comprend une portée de 100 mètres, par exemple.

La présente invention concerne également des opérations permettant de régler le volume du champ de vision opérationnel d'un type de capteur (par exemple, une caméra) sur la base de paramètres dégradés déterminés à partir de données de capteur reçues d'un autre type de capteur (par exemple, un capteur lidar), et vice versa.

Les mises en œuvre des systèmes et procédés divulgués permettent avantageusement à un système de véhicule d'ajuster les données de capteur acceptées en temps réel, de manière à s'adapter dynamiquement aux conditions changeantes pendant le déplacement et permettent au véhicule de détecter en continu avec précision et en toute confiance des objets dans son environnement. Les systèmes et procédés décrits fournissent également des moyens efficaces et fiables d'utiliser des objets cibles connus dans l'environnement d'un véhicule pour déterminer des ajustements précis des volumes de champ de vision de fonctionnement des capteurs.

II. Exemples de systèmes et d'appareils

Des exemples de systèmes et de dispositifs vont maintenant être décrits plus en détail. En général, les modes de réalisation décrits ici peuvent être utilisés avec n'importe quel système qui comprend un ou plusieurs capteurs qui balayent un environnement du système. Les modes de réalisation illustratifs décrits ici comprennent des véhicules qui utilisent des capteurs, tels que des lidars, des RADAR, des SONAR, des caméras, etc. Cependant, un exemple de système peut également être mis en œuvre dans ou prendre la forme d'autres dispositifs, tels que des dispositifs robotiques, des systèmes industriels (par exemple chaînes de montage, etc.), ou des systèmes ou dispositifs de communication mobile, entre autres possibilités.

Le terme « véhicule » est interprété ici au sens large pour couvrir tout objet en mouvement, y compris, par exemple, un véhicule aérien, une embarcation, un engin spatial, une voiture, un camion, une fourgonnette, un camion semi-remorque, une moto, une voiturette de golf, un -véhicule routier, un dispositif robotique d'intérieur, un véhicule de transport d'entrepôt, un chariot élévateur, un tracteur ou un véhicule agricole, ainsi qu'un transporteur qui se déplace sur une piste telle qu'une montagne russe, un chariot, un tramway ou un wagon de train, parmi autres exemples. Certains véhicules peuvent fonctionner en mode entièrement autonome, où aucune interaction humaine n'est utilisée pour les opérations, un mode semi-autonome, où aucune petite interaction humaine n'est utilisée pour les opérations, ou un mode actionné par l'homme, où un humain utilise le véhicule et les capteurs peut aider l'humain.

Dans des exemples de modes de réalisation, un exemple de système de véhicule peut comprendre un ou plusieurs processeurs, une ou plusieurs formes de mémoire, un ou plusieurs dispositifs/interfaces d'entrée, un ou plusieurs dispositifs/interfaces de sortie, et des instructions lisibles par machine qui, lorsqu'elles sont exécutées par le ou plus de processeurs amènent le système à exécuter les diverses fonctions, tâches, capacités, etc., décrites ci-dessus. Des exemples de systèmes entrant dans le cadre de la présente divulgation seront décrits plus en détail ci-dessous.

FIGUE. 1 est un schéma fonctionnel illustrant un véhicule 100 selon un exemple de réalisation. Le véhicule 100 peut être configuré pour fonctionner entièrement ou partiellement en mode autonome, et peut donc être appelé « véhicule autonome ». Le véhicule peut également être configuré pour être utilisé par un humain, mais fournir des informations à l'humain par le biais des systèmes de détection du véhicule. Par exemple, un système informatique 111 peut contrôler le véhicule 100 en mode autonome via des instructions de contrôle à un système de contrôle 106 pour le véhicule 100. Le système informatique 111 peut recevoir des informations d'un ou plusieurs systèmes de capteurs 104, et baser un ou plusieurs processus de contrôle (tels que l'établissement d'un cap de manière à éviter un obstacle détecté) sur les informations reçues de manière automatisée.

Le véhicule autonome 100 peut être totalement autonome ou partiellement autonome. Dans un véhicule partiellement autonome, certaines fonctions peuvent éventuellement être contrôlées manuellement (par exemple, par un conducteur) tout ou partie du temps. En outre, un véhicule partiellement autonome peut être configuré pour basculer entre un mode de fonctionnement entièrement manuel et un mode de fonctionnement partiellement autonome et/ou entièrement autonome.

Le véhicule 100 comprend un système de propulsion 102, un système de capteurs 104, un système de contrôle 106, un ou plusieurs périphériques 108, une alimentation 110, un système informatique 111, et une interface utilisateur 112. Le véhicule 100 peut inclure plus ou moins de sous-systèmes et chaque sous-système peut éventuellement inclure plusieurs composants. De plus, chacun des sous-systèmes et composants du véhicule 100 peuvent être interconnectés et/ou en communication. Ainsi, une ou plusieurs des fonctions du véhicule 100 décrits ici peuvent éventuellement être divisés entre des composants fonctionnels ou physiques supplémentaires, ou combinés en moins de composants fonctionnels ou physiques. Dans certains exemples supplémentaires, des composants fonctionnels et/ou physiques supplémentaires peuvent être ajoutés aux exemples illustrés par la Fig. 1 .

Le système propulsif 102 peut comprendre des composants pouvant fonctionner pour fournir un mouvement motorisé au véhicule 100. Dans certains modes de réalisation, le système de propulsion 102 comprend un moteur/moteur 118, une source d'énergie 120, une transmission 122, et roues/pneus 124. Le moteur/moteur 118 convertit la source d'énergie 120 à l'énergie mécanique. Dans certains modes de réalisation, le système de propulsion 102 peut éventuellement comprendre un ou les deux moteurs et/ou moteurs. Par exemple, un véhicule hybride gaz-électrique peut comprendre à la fois un moteur essence/diesel et un moteur électrique.

La source d'énergie 120 représente une source d'énergie, telle que l'énergie électrique et/ou chimique, qui peut, en tout ou en partie, alimenter le moteur/moteur 118. C'est-à-dire que le moteur/moteur 118 peut être configuré pour convertir la source d'énergie 120 à l'énergie mécanique pour faire fonctionner la transmission. Dans certains modes de réalisation, la source d'énergie 120 peut inclure l'essence, le diesel, d'autres carburants à base de pétrole, le propane, d'autres carburants à base de gaz comprimé, l'éthanol, les panneaux solaires, les batteries, les condensateurs, les volants d'inertie, les systèmes de freinage régénératifs et/ou d'autres sources d'énergie électrique, etc. La source d'énergie 120 peut également fournir de l'énergie pour d'autres systèmes du véhicule 100.

La transmission 122 comprend des engrenages appropriés et/ou des éléments mécaniques appropriés pour transmettre la puissance mécanique du moteur/moteur 118 aux roues/pneus 124. Dans certains modes de réalisation, la transmission 122 comprend une boîte de vitesses, un embrayage, un différentiel, un arbre de transmission et/ou des essieux, etc.

Les roues/pneus 124 sont agencés pour supporter de manière stable le véhicule 100 tout en assurant une traction par friction avec une surface, telle qu'une route, sur laquelle le véhicule 100 se déplace. En conséquence, les roues/pneus 124 sont configurés et agencés selon la nature du véhicule 100. Par exemple, les roues/pneus peuvent être disposés sous la forme d'un monocycle, d'un vélo, d'une moto, d'un tricycle ou d'une voiture/camion à quatre roues. D'autres géométries de roue/pneu sont possibles, telles que celles comprenant six roues ou plus. Toute combinaison de roues/pneus 124 de véhicule 100 peut fonctionner pour tourner de manière différentielle par rapport aux autres roues/pneus 124. Les roues/pneus 124 peut éventuellement comprendre au moins une roue qui est fixée rigidement à la transmission 122 et au moins un pneu couplé à une jante d'une roue correspondante qui entre en contact avec une surface de conduite. Les roues/pneus 124 peut inclure n'importe quelle combinaison de métal et de caoutchouc, et/ou d'autres matériaux ou combinaison de matériaux.

Le système de capteurs 104 comprend généralement un ou plusieurs capteurs configurés pour détecter des informations sur l'environnement entourant le véhicule 100. Par exemple, le système de capteurs 104 peut inclure un système de positionnement global (GPS) 126, une centrale inertielle (IMU) 128, une unité radar 130, un ensemble télémètre laser/lidar 132, un appareil photo 134, et/ou un micro 136. Le système de capteurs 104 pourrait également inclure des capteurs configurés pour surveiller les systèmes internes du véhicule 100 (par exemple, O2 moniteur, jauge de carburant, température d'huile moteur, capteurs de vitesse de roue, etc.). Un ou plusieurs des capteurs inclus dans le système de capteurs 104 pourraient être configurés pour être actionnés séparément et/ou collectivement afin de modifier une position et/ou une orientation du ou des capteurs.

Le GPS 126 est un capteur configuré pour estimer un emplacement géographique du véhicule 100. A cet effet, le GPS 126 peut comprendre un émetteur-récepteur utilisable pour fournir des informations concernant la position du véhicule 100 par rapport à la Terre.

L'UMI 128 peut inclure n'importe quelle combinaison de capteurs (par exemple, des accéléromètres et des gyroscopes) configurés pour détecter les changements de position et d'orientation du véhicule 100 basé sur l'accélération inertielle.

L'unité radar 130 peut représenter un système qui utilise des signaux radio pour détecter des objets dans l'environnement local du véhicule 100. Dans certains modes de réalisation, en plus de détecter les objets, l'unité radar 130 et/ou le système informatique 111 peut en outre être configuré pour détecter la vitesse et/ou le cap des objets. L'unité radar 130 peut inclure des antennes, des réseaux de guides d'ondes, des puces de communication et/ou d'autres composants pouvant faciliter le fonctionnement du radar.

De même, le télémètre laser ou l'unité lidar 132 peut être n'importe quel capteur configuré pour détecter des objets dans l'environnement dans lequel le véhicule 100 est localisé à l'aide de lasers. L'ensemble télémètre laser/lidar 132 peut comprendre une ou plusieurs sources laser, un scanner laser et un ou plusieurs détecteurs, entre autres composants du système. L'ensemble télémètre laser/lidar 132 peut être configuré pour fonctionner dans un mode de détection cohérent (par exemple, en utilisant une détection hétérodyne) ou incohérent.

L'appareil photo 134 peut comprendre un ou plusieurs dispositifs configurés pour capturer une pluralité d'images de l'environnement entourant le véhicule 100. L'appareil photo 134 peut être un appareil photo ou une caméra vidéo. Dans certains modes de réalisation, la caméra 134 peut être déplaçable mécaniquement, par exemple en faisant pivoter et/ou en inclinant une plate-forme sur laquelle la caméra est montée. En tant que tel, un processus de contrôle du véhicule 100 peut être mis en œuvre pour contrôler le mouvement de la caméra 134.

Le système de capteurs 104 peut également inclure un microphone 136. Le micro 136 peut être configuré pour capturer le son de l'environnement entourant le véhicule 100. Dans certains cas, plusieurs microphones peuvent être disposés en un réseau de microphones, ou éventuellement en plusieurs réseaux de microphones.

Le système de contrôle 106 est configuré pour contrôler une ou plusieurs opérations régulant l'accélération du véhicule 100 et ses composants. Pour effectuer l'accélération, le système de contrôle 106 comprend une unité de direction 138, Manette de Gaz 140, unité de freinage 142, un algorithme de fusion de capteurs 144, un système de vision par ordinateur 146, un système de navigation/pathing 148, et/ou un système d'évitement d'obstacles 150, etc.

L'unité de direction 138 est utilisable pour ajuster le cap du véhicule 100. Par exemple, l'unité de direction peut régler l'axe (ou les axes) d'une ou plusieurs roues/pneus 124 de manière à effectuer le virage du véhicule. L'accélérateur 140 est configuré pour contrôler, par exemple, la vitesse de fonctionnement du moteur/moteur 118 et, à son tour, régler l'accélération vers l'avant du véhicule 100 par la transmission 122 et roues/pneus 124. L'unité de freinage 142 décélère le véhicule 100. L'unité de freinage 142 peut utiliser la friction pour ralentir les roues/pneus 124. Dans certains modes de réalisation, l'unité de freinage 142 décélère par induction les roues/pneus 124 par un processus de freinage régénératif pour convertir l'énergie cinétique des roues/pneus 124 au courant électrique.

L'algorithme de fusion de capteurs 144 est un algorithme (ou un produit de programme informatique stockant un algorithme) configuré pour accepter les données du système de capteurs 104 comme entrée. Les données peuvent inclure, par exemple, des données représentant des informations détectées au niveau des capteurs du système de capteurs. 104. L'algorithme de fusion de capteurs 144 peut inclure, par exemple, un filtre de Kalman, un réseau bayésien, etc. L'algorithme de fusion de capteurs 144 fournit des évaluations concernant l'environnement entourant le véhicule sur la base des données du système de capteurs 104. Dans certains modes de réalisation, les évaluations peuvent comprendre des évaluations d'objets et/ou de caractéristiques individuels dans l'environnement entourant le véhicule. 100, des évaluations de situations particulières et/ou des évaluations d'interférences possibles entre le véhicule 100 et les caractéristiques de l'environnement (par exemple, comme la prévision des collisions et/ou des impacts) en fonction des situations particulières.

Le système de vision par ordinateur 146 peut traiter et analyser les images capturées par la caméra 134 pour identifier des objets et/ou des caractéristiques dans l'environnement entourant le véhicule 100. Les caractéristiques/objets détectés peuvent inclure des feux de circulation, des limites de route, d'autres véhicules, des piétons et/ou des obstacles, etc. Le système de vision par ordinateur 146 peut éventuellement employer un algorithme de reconnaissance d'objets, un algorithme Structure From Motion (SFM), un suivi vidéo et/ou des techniques de vision par ordinateur disponibles pour effectuer la catégorisation et/ou l'identification des caractéristiques/objets détectés. Dans certains modes de réalisation, le système de vision par ordinateur 146 peut également être configuré pour cartographier l'environnement, suivre les objets perçus, estimer la vitesse des objets, etc.

Le système de navigation et de cheminement 148 est configuré pour déterminer une trajectoire de conduite pour le véhicule 100. Par exemple, le système de navigation et de cheminement 148 peut déterminer une série de vitesses et de caps directionnels pour effectuer le mouvement du véhicule le long d'un chemin qui évite sensiblement les obstacles perçus tout en faisant généralement avancer le véhicule le long d'un chemin routier menant à une destination finale, qui peut être définie en fonction des entrées de l'utilisateur via le interface utilisateur 112, par exemple. Le système de navigation et de cheminement 148 peut en outre être configuré pour mettre à jour la trajectoire de conduite de manière dynamique pendant que le véhicule 100 fonctionne sur la base des obstacles perçus, des schémas de circulation, des conditions météorologiques/de la route, etc. Dans certains modes de réalisation, le système de navigation et de cheminement 148 peut être configuré pour incorporer les données de l'algorithme de fusion de capteurs 144, le GPS 126, et une ou plusieurs cartes prédéterminées afin de déterminer le trajet de conduite pour le véhicule 100.

Le système d'évitement d'obstacles 150 peut représenter un système de commande configuré pour identifier, évaluer et éviter ou autrement négocier des obstacles potentiels dans l'environnement entourant le véhicule 100. Par exemple, le système d'évitement d'obstacles 150 peut effectuer des changements dans la navigation du véhicule en actionnant un ou plusieurs sous-systèmes dans le système de commande 106 pour entreprendre des manœuvres de déviation, des manœuvres de virage, des manœuvres de freinage, etc. Dans certains modes de réalisation, le système d'évitement d'obstacles 150 est configuré pour déterminer automatiquement des manœuvres d'évitement d'obstacles réalisables (« disponibles ») sur la base des modèles de trafic environnants, des conditions routières, etc. Par exemple, le système d'évitement d'obstacles 150 peut être configuré de telle sorte qu'une manœuvre de déviation n'est pas entreprise lorsque d'autres systèmes de capteurs détectent des véhicules, des barrières de construction, d'autres obstacles, etc. dans la région adjacente au véhicule dans lequel serait dévié. Dans certains modes de réalisation, le système d'évitement d'obstacles 150 peut sélectionner automatiquement la manœuvre qui est à la fois disponible et maximise la sécurité des occupants du véhicule. Par exemple, le système d'évitement d'obstacles 150 peut sélectionner une manœuvre d'évitement prévue pour provoquer le moins d'accélération dans l'habitacle du véhicule 100.

Le véhicule 100 comprend également des périphériques 108 configuré pour permettre l'interaction entre le véhicule 100 et des capteurs externes, d'autres véhicules, d'autres systèmes informatiques et/ou un utilisateur, tel qu'un occupant du véhicule 100. Par exemple, les périphériques 108 pour recevoir des informations des occupants, des systèmes externes, etc. peuvent comprendre un système de communication sans fil 152, un écran tactile 154, un microphone 156, et/ou un conférencier 158.

Dans certains modes de réalisation, les périphériques 108 fonction de réception d'entrées pour un utilisateur du véhicule 100 pour interagir avec l'interface utilisateur 112. A cet effet, l'écran tactile 154 peuvent à la fois fournir des informations à un utilisateur de véhicule 100, et transmettre les informations de l'utilisateur indiqué via l'écran tactile 154 à l'interface utilisateur 112. L'écran tactile 154 peut être configuré pour détecter à la fois les positions tactiles et les gestes tactiles du doigt (ou du stylet, etc.) d'un utilisateur via une détection capacitive, une détection de résistance, une détection optique, un processus d'onde acoustique de surface, etc. L'écran tactile 154 peut être capable de détecter le mouvement du doigt dans une direction parallèle ou plane à la surface de l'écran tactile, dans une direction normale à la surface de l'écran tactile, ou les deux, et peut également être capable de détecter un niveau de pression appliqué à la surface de l'écran tactile. Un occupant du véhicule 100 peut également utiliser une interface de commande vocale. Par exemple, le micro 156 peut être configuré pour recevoir de l'audio (par exemple, une commande vocale ou une autre entrée audio) d'un utilisateur du véhicule 100. De même, les locuteurs 158 peut être configuré pour émettre de l'audio vers l'utilisateur du véhicule 100.

Dans certains modes de réalisation, les périphériques 108 fonction permettant la communication entre le véhicule 100 et des systèmes externes, tels que des appareils, des capteurs, d'autres véhicules, etc. dans son environnement et/ou des contrôleurs, des serveurs, etc., physiquement situés loin du véhicule qui fournissent des informations utiles concernant l'environnement du véhicule, telles que des informations sur le trafic, la météo informations, etc. Par exemple, le système de communication sans fil 152 peut communiquer sans fil avec un ou plusieurs appareils directement ou via un réseau de communication. Le système de communication sans fil 152 peut éventuellement utiliser une communication cellulaire 3G, telle que CDMA, EVDO, GSM/GPRS, et/ou une communication cellulaire 4G, telle que WiMAX ou LTE. En plus ou en alternative, système de communication sans fil 152 peut communiquer avec un réseau local sans fil (WLAN), par exemple, en utilisant le WiFi. Dans certains modes de réalisation, le système de communication sans fil 152 pourrait communiquer directement avec un appareil, par exemple, à l'aide d'une liaison infrarouge, Bluetooth et/ou ZigBee. Le système de communication sans fil 152 peut inclure un ou plusieurs dispositifs de communication dédiés à courte portée (DSRC) qui peuvent inclure des communications de données publiques et/ou privées entre des véhicules et/ou des stations en bordure de route. D'autres protocoles sans fil pour envoyer et recevoir des informations intégrées dans des signaux, tels que divers systèmes de communication véhiculaires, peuvent également être utilisés par le système de communication sans fil. 152 dans le cadre de la présente divulgation.

Comme indiqué ci-dessus, l'alimentation 110 peut fournir de l'énergie aux composants du véhicule 100, tels que l'électronique dans les périphériques 108, système informatique 111, système de capteurs 104, etc. L'alimentation 110 peut comprendre une batterie rechargeable au lithium-ion ou au plomb pour stocker et décharger de l'énergie électrique vers les divers composants alimentés, par exemple. Dans certains modes de réalisation, un ou plusieurs groupes de batteries peuvent être configurés pour fournir de l'énergie électrique. Dans certains modes de réalisation, l'alimentation 110 et source d'énergie 120 peuvent être mis en œuvre ensemble, comme dans certaines voitures tout électriques.

Plusieurs ou toutes les fonctions du véhicule 100 peut être contrôlé via un système informatique 111 qui reçoit des entrées du système de capteurs 104, périphériques 108, etc., et communique les signaux de commande appropriés au système de propulsion 102, Système de contrôle 106, périphériques, etc. pour effectuer le fonctionnement automatique du véhicule 100 en fonction de son environnement. Système informatique 111 comprend au moins un processeur 113 (qui peut inclure au moins un microprocesseur) qui exécute des instructions 115 stockées dans un support lisible par ordinateur non transitoire, tel que le stockage de données 114. Le système informatique 111 peut également représenter une pluralité de dispositifs informatiques qui servent à contrôler des composants ou des sous-systèmes individuels du véhicule 100 de façon distribuée.

Dans certains modes de réalisation, le stockage de données 114 contient des instructions 115 (par exemple, la logique du programme) exécutable par le processeur 113 exécuter diverses fonctions du véhicule 100, y compris celles décrites ci-dessus en relation avec la fig. 1 . Stockage de données 114 peut également contenir des instructions supplémentaires, y compris des instructions pour transmettre des données à, recevoir des données de, interagir avec et/ou contrôler un ou plusieurs des systèmes de propulsion 102, le système de capteurs 104, le système de contrôle 106, et les périphériques 108.

En plus des instructions 115, le stockage des données 114 peut stocker des données telles que des cartes routières, des informations sur les chemins, entre autres informations sous forme de données cartographiques 116. Ces informations peuvent être utilisées par le véhicule 100 et système informatique 111 pendant le fonctionnement du véhicule 100 dans les modes autonome, semi-autonome et/ou manuel pour sélectionner les routes disponibles vers une destination finale, interpréter les informations du système de capteurs 104, etc.

Le véhicule 100, et système informatique associé 111, fournit des informations et/ou reçoit des informations d'un utilisateur de véhicule 100, tel qu'un occupant dans l'habitacle du véhicule 100. L'interface utilisateur 112 peut en conséquence inclure un ou plusieurs dispositifs d'entrée/sortie au sein de l'ensemble de périphériques 108, comme le système de communication sans fil 152, l'écran tactile 154, le micro 156, et/ou le locuteur 158 pour permettre la communication entre le système informatique 111 et un occupant du véhicule.

Le système informatique 111 contrôle le fonctionnement du véhicule 100 sur la base d'entrées reçues de divers sous-systèmes indiquant les conditions du véhicule et/ou de l'environnement (par exemple, le système de propulsion 102, système de capteurs 104, et/ou système de contrôle 106), ainsi que les entrées de l'interface utilisateur 112, indiquant les préférences de l'utilisateur. Par exemple, le système informatique 111 peut utiliser l'entrée du système de contrôle 106 pour contrôler l'unité de direction 138 pour éviter un obstacle détecté par le système de capteurs 104 et le système d'évitement d'obstacles 150. Le système informatique 111 peut être configuré pour contrôler de nombreux aspects du véhicule 100 et ses sous-systèmes. En général, cependant, des dispositions sont prises pour contourner manuellement le fonctionnement automatisé piloté par le contrôleur, comme en cas d'urgence, ou simplement en réponse à une dérogation activée par l'utilisateur, etc.

Les composants du véhicule 100 décrits ici peuvent être configurés pour fonctionner de manière interconnectée avec d'autres composants à l'intérieur ou à l'extérieur de leurs systèmes respectifs. Par exemple, la caméra 134 peut capturer une pluralité d'images qui représentent des informations sur un environnement du véhicule 100 tout en fonctionnant en mode autonome. L'environnement peut inclure d'autres véhicules, des feux de circulation, des panneaux de signalisation, des balises routières, des piétons, etc. Le système de vision par ordinateur 146 peut catégoriser et/ou reconnaître divers aspects de l'environnement de concert avec l'algorithme de fusion de capteurs 144, le système informatique 111, etc. basé sur des modèles de reconnaissance d'objets pré-enregistrés dans le stockage de données 114, et/ou par d'autres techniques.

Bien que le véhicule 100 est décrit et représenté sur la Fig. 1 comme ayant divers composants du véhicule 100, par exemple, système de communication sans fil 152, système informatique 111, stockage de données 114, et interface utilisateur 112, intégré au véhicule 100, un ou plusieurs de ces composants peuvent éventuellement être montés ou associés séparément du véhicule 100. Par exemple, le stockage de données 114 peut exister, en partie ou en totalité, séparément du véhicule 100, comme dans un serveur basé sur le cloud, par exemple. Ainsi, un ou plusieurs des éléments fonctionnels du véhicule 100 peuvent être mis en œuvre sous la forme d'éléments de dispositif situés séparément ou ensemble. Les éléments fonctionnels de l'appareil qui composent le véhicule 100 peuvent généralement être couplés en communication ensemble d'une manière câblée et/ou sans fil.

FIGUE. 2 montre un exemple de véhicule 200 qui peut inclure certaines ou toutes les fonctions décrites en relation avec le véhicule 100 en référence à la fig. 1 . Bien que véhicule 200 est illustré sur la Fig. 2 en tant que voiture à quatre roues à des fins d'illustration, la présente divulgation n'est pas ainsi limitée. Par exemple, le véhicule 200 peut représenter un camion, une fourgonnette, un camion semi-remorque, une moto, une voiturette de golf, un véhicule tout-terrain ou un véhicule agricole, etc.

L'exemple de véhicule 200 comprend une unité de capteur 202, une première unité lidar 204, une deuxième unité lidar 206, un premier radar 208, un deuxième radar 210, une première unité lidar/radar 212, une deuxième unité lidar/radar 214, et deux emplacements supplémentaires 216, 218 au niveau duquel une unité radar, une unité lidar, une unité de télémètre laser et/ou un autre type de capteur ou de capteur(s) pourraient être situés sur le véhicule 200. Chacune des premières unités lidar/radar 212 et la deuxième unité lidar/radar 214 peut prendre la forme d'une unité lidar, d'une unité radar ou des deux.

De plus, l'exemple de véhicule 200 peut inclure n'importe lequel des composants décrits en rapport avec le véhicule 100 de la fig. 1 . Les premier et deuxième radars 208, 210 et/ou les première et deuxième unités lidar 204, 206 peut scanner activement l'environnement environnant pour la présence d'obstacles potentiels et peut être similaire à l'unité radar 130 et/ou télémètre laser/unité lidar 132 dans le véhicule 100. De plus, la première unité lidar/radar 212 et deuxième unité lidar/radar 214 peut analyser activement l'environnement environnant pour la présence d'obstacles potentiels et peut être similaire à l'unité radar 130 et/ou télémètre laser/unité lidar 132 dans le véhicule 100.

Dans certains exemples, les unités lidar peuvent être l'un de deux types différents d'unités lidar. Un premier type d'unité lidar peut être un lidar qui peut balayer en continu toute la région du champ de vision de l'unité lidar. Un deuxième type d'unité lidar peut être un lidar qui peut balayer une région spécifique du champ de vision de l'unité lidar lorsqu'il est orienté pour le faire. Le premier type d'unité lidar peut avoir une portée plus courte que le second type d'unité lidar. Le second type d'unité lidar peut avoir un champ de vision plus petit lorsqu'il fonctionne par rapport à la première unité lidar. Dans certains exemples, une ou plusieurs des unités lidar désignées du véhicule 200 peut contenir un ou les deux types d'unités lidar. Par exemple, unité lidar 204 monté sur le dessus du véhicule peut contenir les deux types d'unités lidar, ou contenir une unité lidar capable à la fois d'un balayage continu et dirigé. Dans un exemple, le deuxième type d'unité lidar peut avoir un champ de vision en fonctionnement qui est de 5 à 15 degrés de large dans le plan horizontal et de 5 à 25 degrés de large dans le plan vertical.

L'unité de capteur 202 est monté sur le véhicule 200 et comprend un ou plusieurs capteurs configurés pour détecter des informations sur un environnement entourant le véhicule 200, et des indications de sortie de l'information. Par exemple, unité de capteur 202 peut inclure toute combinaison de caméras, radars, lidars, télémètres, capteurs acoustiques et capteurs météorologiques tels que baromètres, capteurs d'humidité, etc. L'unité de capteur 202 peut comprendre un ou plusieurs supports mobiles qui pourraient être actionnés pour ajuster l'orientation d'un ou plusieurs capteurs dans l'unité de capteur 202. Dans un mode de réalisation, le support mobile pourrait comprendre une plate-forme rotative qui pourrait balayer des capteurs afin d'obtenir des informations de chaque direction autour du véhicule. 200. Dans un autre mode de réalisation, la monture mobile de l'unité de capteur 202 pourrait être mobile par balayage dans une plage particulière d'angles et/ou d'azimuts. L'unité de capteur 202 peut être monté sur le toit d'une voiture, bien que d'autres emplacements de montage soient possibles. De plus, les capteurs de l'unité de capteur 202 pourraient être distribués dans différents endroits et n'ont pas besoin d'être colocalisés dans un seul endroit. Certains types de capteurs et emplacements de montage possibles incluent les deux emplacements supplémentaires 216, 218. De plus, chaque capteur de l'unité de capteur 202 peut être configuré pour être déplacé ou scanné conjointement avec ou indépendamment d'autres capteurs de l'unité de capteur 202.

Dans un exemple de configuration, un ou plusieurs antennes radar (par exemple, les premier et deuxième radars 208, 210) peut être situé près de l'arrière du véhicule 200, pour scanner activement la région à l'arrière de la voiture 200 pour la présence d'objets radio-réfléchissants. De même, la première unité lidar/radar 212 et la deuxième unité lidar/radar 214 peut être monté près de l'avant du véhicule pour balayer activement une région à l'avant du véhicule. Un scanner radar peut être situé, par exemple, dans un emplacement approprié pour éclairer une région comprenant une trajectoire de déplacement vers l'avant du véhicule 200 sans occlusion par d'autres caractéristiques du véhicule 200. Par exemple, un scanner radar peut être situé pour être intégré et/ou monté dans ou à proximité du pare-chocs avant, des phares avant, du capot et/ou du capot, etc. De plus, un ou plusieurs dispositifs de balayage radar supplémentaires peuvent être placés pour scanner activement le côté et/ou l'arrière du véhicule 200 pour la présence d'objets radio-réfléchissants, par exemple en incluant de tels dispositifs dans ou à proximité du pare-chocs arrière, des panneaux latéraux, des bas de caisse et/ou du train d'atterrissage, etc.

En pratique, chaque unité radar peut être capable de balayer sur une largeur de faisceau de 90 degrés. Lorsque les unités radar sont placées aux coins du véhicule, comme indiqué par les unités radar 208, 210, 212, et 214, chaque unité radar peut être capable de balayer un champ de vision de 90 degrés dans le plan horizontal et de fournir au véhicule un champ de vision radar de toute la zone de 360 ​​degrés autour du véhicule. En outre, le véhicule peut également comprendre deux unités radar orientées latéralement. Les radars orientés latéralement peuvent fournir d'autres images radar lorsque d'autres radars sont obstrués, comme lors d'un virage à droite protégé (c'est-à-dire un virage à droite lorsqu'il y a un autre véhicule dans la voie à gauche de la véhicule qui tourne).

Bien que non représenté sur la Fig. 2 , le véhicule 200 peut inclure un système de communication sans fil. Le système de communication sans fil peut comprendre des émetteurs et des récepteurs sans fil qui pourraient être configurés pour communiquer avec des dispositifs externes ou internes au véhicule. 200. Spécifiquement, le système de communication sans fil pourrait comprendre des émetteurs-récepteurs configurés pour communiquer avec d'autres véhicules et/ou dispositifs informatiques, par exemple, dans un système de communication de véhicule ou une station routière. Des exemples de tels systèmes de communication véhiculaires comprennent les communications dédiées à courte portée (DSRC), l'identification par radiofréquence (RFID) et d'autres normes de communication proposées orientées vers les systèmes de transport intelligents.

Le véhicule 200 peut inclure une caméra, éventuellement à un emplacement à l'intérieur de l'unité de capteur 202. La caméra peut être un instrument photosensible, tel qu'un appareil photo, une caméra vidéo, etc., qui est configuré pour capturer une pluralité d'images de l'environnement du véhicule. 200. A cette fin, la caméra peut être configurée pour détecter la lumière visible, et peut en plus ou en variante être configurée pour détecter la lumière provenant d'autres parties du spectre, telles que la lumière infrarouge ou ultraviolette. Dans un exemple particulier, l'unité de capteur 202 peut contenir à la fois des caméras optiques (c'est-à-dire des caméras qui capturent la lumière visible par l'homme) et des caméras infrarouges. Les caméras infrarouges peuvent être capables de capturer des images de chaleur dans le champ de vision de la caméra.

La caméra peut être un détecteur bidimensionnel, et peut éventuellement avoir une plage spatiale de sensibilité tridimensionnelle. Dans certains modes de réalisation, la caméra peut comprendre, par exemple, un détecteur de distance configuré pour générer une image bidimensionnelle indiquant la distance entre la caméra et un certain nombre de points dans l'environnement. A cet effet, la caméra peut utiliser une ou plusieurs techniques de détection de distance. Par exemple, la caméra peut fournir des informations sur la distance en utilisant une technique de lumière structurée dans laquelle le véhicule 200 illumine un objet dans l'environnement avec un motif lumineux prédéterminé, tel qu'un quadrillage ou un motif en damier et utilise la caméra pour détecter une réflexion du motif lumineux prédéterminé à partir de l'environnement. Sur la base des distorsions dans le modèle de lumière réfléchie, le véhicule 200 peut déterminer la distance aux points sur l'objet. Le motif lumineux prédéterminé peut comprendre une lumière infrarouge ou un rayonnement à d'autres longueurs d'onde appropriées pour de telles mesures. Dans certains exemples, la caméra peut être montée à l'intérieur d'un pare-brise avant du véhicule 200. Plus précisément, la caméra peut être située pour capturer des images à partir d'une vue vers l'avant par rapport à l'orientation du véhicule 200. D'autres emplacements de montage et angles de vision de la caméra peuvent également être utilisés, à l'intérieur ou à l'extérieur du véhicule 200. En outre, la caméra peut avoir des optiques associées pouvant fonctionner pour fournir un champ de vision réglable. De plus, la caméra peut être montée sur un véhicule 200 avec un support mobile pour faire varier un angle de pointage de la caméra, par exemple via un mécanisme de panoramique/inclinaison.

En outre, le capteur de caméra peut être configuré avec un volet roulant. Un volet roulant échantillonnera généralement de manière itérative le capteur de lumière pour capturer des données d'image. Les données du capteur de caméra peuvent former une image, une pluralité d'images ou une vidéo. Par exemple, dans un capteur d'image traditionnel, un volet roulant peut échantillonner de manière itérative le capteur de lumière une rangée de cellules à la fois. Lors de l'échantillonnage d'un capteur de caméra doté d'un volet roulant, les objets dans le champ de vision du capteur qui ont une vitesse élevée peuvent apparaître déformés. De telles distorsions sont causées par l'échantillonnage itératif. Étant donné que les lignes de cellules sont échantillonnées de manière itérative, l'objet imagé se déplace légèrement entre chaque échantillonnage. Par conséquent, chaque ligne sera échantillonnée un peu plus tard que la ligne précédente. En raison du retard d'échantillonnage des lignes respectives, un objet ayant un mouvement horizontal peut avoir une inclinaison horizontale. Par exemple, un véhicule se déplaçant dans le champ de vision du capteur peut avoir une inclinaison horizontale et une compression (ou expansion) verticale qui déforme le véhicule. Ce biais peut être gênant pour le traitement basé sur l'emplacement horizontal d'objets dans une image. Le présent système peut aider à identifier d'éventuelles distorsions de caméra causées par un volet roulant.

FIGUE. 3 est une illustration conceptuelle d'une communication sans fil entre divers systèmes informatiques liés à un véhicule autonome, selon un exemple de mise en œuvre. En particulier, une communication sans fil peut se produire entre le système informatique distant 302 et véhicule 200 via le réseau 304. La communication sans fil peut également se produire entre le système informatique du serveur 306 et système informatique à distance 302, et entre le système informatique du serveur 306 et véhicule 200. Pendant le fonctionnement du véhicule 200, le véhicule peut envoyer et recevoir des données à la fois du système informatique serveur 306 et système informatique à distance 302 pour aider à la conduite du véhicule 200. Le véhicule 200 peut communiquer des données relatives à son fonctionnement et des données de ses capteurs au système informatique du serveur 306 et le système informatique à distance 302. De plus, le véhicule 200 peut recevoir des instructions opérationnelles et/ou des données relatives à des objets détectés par les capteurs du véhicule en provenance du système informatique serveur 306 et système informatique à distance 302.

Véhicule 200 peut correspondre à divers types de véhicules capables de transporter des passagers ou des objets entre des emplacements, et peut prendre la forme d'un ou plusieurs des véhicules décrits ci-dessus.

Système informatique à distance 302 peut représenter tout type de dispositif lié aux techniques d'assistance et de fonctionnement à distance, y compris, mais sans s'y limiter, ceux décrits ici. Dans les exemples, le système informatique à distance 302 peut représenter tout type d'appareil configuré pour (i) recevoir des informations relatives au véhicule 200, (ii) fournir une interface à travers laquelle un opérateur humain ou un opérateur informatique peut à son tour percevoir les informations et saisir une réponse liée aux informations, et (iii) transmettre la réponse au véhicule 200 ou à d'autres appareils. Système informatique à distance 302 peut prendre diverses formes, telles qu'un poste de travail, un ordinateur de bureau, un ordinateur portable, une tablette, un téléphone mobile (par exemple, un téléphone intelligent) et/ou un serveur. Dans certains exemples, le système informatique à distance 302 peut inclure plusieurs dispositifs informatiques fonctionnant ensemble dans une configuration de réseau.

Système informatique à distance 302 peut comprendre un ou plusieurs sous-systèmes et composants similaires ou identiques aux sous-systèmes et composants du véhicule 200. Au minimum, un système informatique à distance 302 peut comprendre un processeur configuré pour effectuer diverses opérations décrites ici. Dans certaines implémentations, le système informatique à distance 302 peut également comprendre une interface utilisateur qui comprend des dispositifs d'entrée/sortie, tels qu'un écran tactile et un haut-parleur. D'autres exemples sont également possibles.

Réseau 304 représente l'infrastructure qui permet la communication sans fil entre le système informatique distant 302 et véhicule 200. Réseau 304 permet également la communication sans fil entre le système informatique du serveur 306 et système informatique à distance 302, et entre le système informatique du serveur 306 et véhicule 200.

La position du système informatique à distance 302 peut varier dans les exemples. Par exemple, le système informatique à distance 302 peut avoir une position éloignée du véhicule 200 qui a une communication sans fil via le réseau 304. Dans un autre exemple, le système informatique à distance 302 peut correspondre à un dispositif informatique à l'intérieur du véhicule 200 qui est séparé du véhicule 200, mais avec lequel un opérateur humain peut interagir alors qu'un passager ou conducteur de véhicule 200. Dans certains exemples, le système informatique à distance 302 peut être un dispositif informatique avec un écran tactile actionnable par le passager du véhicule 200.

Dans certaines mises en œuvre, les opérations décrites ici qui sont effectuées par un système informatique distant 302 peut être effectué en plus ou en alternative par un véhicule 200 (c'est-à-dire par tout système ou sous-système de véhicule 200). En d'autres termes, le véhicule 200 peut être configuré pour fournir un mécanisme d'assistance à distance avec lequel un conducteur ou un passager du véhicule peut interagir.

Système informatique serveur 306 peut être configuré pour communiquer sans fil avec un système informatique distant 302 et véhicule 200 via le réseau 304 (ou peut-être directement avec le système informatique à distance 302 et/ou véhicule 200). Système informatique serveur 306 peut représenter tout dispositif informatique configuré pour recevoir, stocker, déterminer et/ou envoyer des informations relatives au véhicule 200 et son assistance à distance. En tant que tel, le système informatique du serveur 306 peut être configuré pour effectuer toute opération(s), ou parties de cette(s) opération(s), qui est/sont décrite(s) ici comme étant exécutées par un système informatique à distance 302 et/ou véhicule 200. Certaines implémentations de communication sans fil liées à l'assistance à distance peuvent utiliser un système informatique de serveur 306, tandis que d'autres ne le peuvent pas.

Système informatique serveur 306 peut inclure un ou plusieurs sous-systèmes et composants similaires ou identiques aux sous-systèmes et composants du système informatique distant 302 et/ou véhicule 200, tel qu'un processeur configuré pour effectuer diverses opérations décrites ici, et une interface de communication sans fil pour recevoir des informations depuis et fournir des informations à un système informatique distant 302 et véhicule 200.

Les différents systèmes décrits ci-dessus peuvent effectuer diverses opérations. Ces opérations et caractéristiques associées vont maintenant être décrites.

Conformément à la discussion ci-dessus, un système informatique (par exemple, un système informatique à distance 302, ou peut-être un système informatique serveur 306, ou un système informatique local au véhicule 200) peut fonctionner pour utiliser une caméra pour capturer des images de l'environnement d'un véhicule autonome. En général, au moins un système informatique sera capable d'analyser les images et éventuellement de contrôler le véhicule autonome.

Dans certaines mises en œuvre, pour faciliter le fonctionnement autonome d'un véhicule (par exemple, un véhicule 200) peut recevoir des données représentant des objets dans un environnement dans lequel le véhicule fonctionne (également appelées ici « données d'environnement ») de diverses manières. Un système de capteurs sur le véhicule peut fournir les données d'environnement représentant des objets de l'environnement. Par exemple, le véhicule peut comporter divers capteurs, notamment une caméra, une unité radar, un télémètre laser, un microphone, une unité radio et d'autres capteurs. Chacun de ces capteurs peut communiquer des données d'environnement à un processeur dans le véhicule concernant les informations que chaque capteur respectif reçoit.

Dans un exemple, une unité radar peut être configurée pour transmettre un signal électromagnétique qui se réfléchit sur un ou plusieurs objets à proximité du véhicule. L'unité radar peut alors capturer des signaux électromagnétiques qui se reflètent sur les objets. Les signaux électromagnétiques réfléchis capturés peuvent permettre au système radar (ou au système de traitement) d'effectuer diverses déterminations concernant les objets qui ont réfléchi le signal électromagnétique. Par exemple, la distance et la position de divers objets réfléchissants peuvent être déterminées. Dans certaines mises en œuvre, le véhicule peut avoir plus d'un radar dans différentes orientations. En pratique, un véhicule peut comporter six radars différents. De plus, chaque unité radar peut être configurée pour diriger un faisceau vers l'un des quatre secteurs différents de l'unité radar. Dans divers exemples, l'unité radar peut être capable de balayer un faisceau sur une plage de 90 degrés, en balayant chacun des quatre secteurs différents de l'unité radar. Le système radar peut être configuré pour stocker des informations capturées dans une mémoire pour un traitement ultérieur par un système de traitement du véhicule. Les informations capturées par le système radar peuvent être des données d'environnement.

Dans un autre exemple, un télémètre laser (par exemple, une unité lidar) peut être configuré pour transmettre un signal électromagnétique (par exemple, de la lumière, telle que celle d'un laser à gaz ou à diode, ou d'une autre source de lumière possible) qui peut se refléter sur un ou plusieurs cibler des objets à proximité du véhicule. Le télémètre laser peut être capable de capturer les signaux électromagnétiques réfléchis (par exemple, laser). Les signaux électromagnétiques réfléchis capturés peuvent permettre au système de télémétrie (ou au système de traitement) de déterminer une distance jusqu'à divers objets, tels que les objets qui ont réfléchi les signaux électromagnétiques en retour vers le télémètre laser. Le système de télémétrie peut également être capable de déterminer une vitesse ou une vitesse d'objets cibles et de la stocker en tant que données d'environnement.

Dans certaines mises en œuvre, le système de traitement peut être capable de combiner des informations provenant des différents capteurs afin d'effectuer d'autres déterminations de l'environnement du véhicule. Par exemple, le système de traitement peut combiner des données provenant à la fois d'informations radar et d'une image capturée pour déterminer si un autre véhicule ou piéton se trouve devant le véhicule autonome. Dans d'autres mises en œuvre, d'autres combinaisons de données de capteur peuvent être utilisées par le système de traitement pour effectuer des déterminations concernant l'environnement.

Lorsqu'il fonctionne en mode autonome, le véhicule peut contrôler son fonctionnement avec peu ou pas d'intervention humaine. Par exemple, un opérateur humain peut entrer une adresse dans le véhicule et le véhicule peut alors être en mesure de conduire, sans autre intervention de l'humain (par exemple, l'humain n'a pas à diriger ou à toucher les pédales de frein/d'accélérateur), pour la destination spécifiée. En outre, pendant que le véhicule fonctionne de manière autonome, le système de capteurs peut recevoir des données d'environnement. Le système de traitement du véhicule peut modifier le contrôle du véhicule en fonction des données d'environnement reçues des différents capteurs. Dans certains exemples, le véhicule peut modifier une vitesse du véhicule en réponse à des données d'environnement provenant des divers capteurs. Le véhicule peut changer de vitesse afin d'éviter des obstacles, d'obéir au code de la route, etc. Lorsqu'un système de traitement dans le véhicule identifie des objets à proximité du véhicule, le véhicule peut être capable de changer de vitesse ou de modifier le mouvement d'une autre manière.

Lorsque le véhicule détecte un objet mais n'est pas très confiant dans la détection de l'objet, le véhicule peut demander à un opérateur humain (ou à un ordinateur plus puissant) d'effectuer une ou plusieurs tâches d'assistance à distance, telles que (i) confirmer si l'objet est en fait présent dans l'environnement (par exemple, s'il y a réellement un panneau d'arrêt ou s'il n'y a réellement aucun panneau d'arrêt présent), (ii) confirmer si l'identification de l'objet par le véhicule est correcte, (iii) corriger l'identification si le l'identification était incorrecte et/ou (iv) fournir une instruction supplémentaire (ou modifier une instruction présente) pour le véhicule autonome.

Le véhicule peut détecter des objets de l'environnement de diverses manières en fonction de la source des données environnementales. Dans certaines mises en œuvre, les données d'environnement peuvent provenir d'une caméra et être des données d'image ou vidéo. Le véhicule peut analyser l'image ou les données vidéo capturées pour identifier des objets dans les données d'image ou vidéo. Dans d'autres mises en œuvre, les données d'environnement peuvent provenir d'une unité lidar. Les procédés et appareils peuvent être configurés pour surveiller des données d'image et/ou vidéo pour la présence d'objets de l'environnement. Dans d'autres mises en œuvre, les données d'environnement peuvent être des données radar, audio ou autres. Le véhicule peut être configuré pour identifier des objets de l'environnement sur la base du radar, de l'audio ou d'autres données.

Dans certaines mises en œuvre, les techniques utilisées par le véhicule pour détecter des objets peuvent être basées sur un ensemble de données connues. Par exemple, des données relatives à des objets environnementaux peuvent être stockées dans une mémoire située dans le véhicule. Le véhicule peut comparer les données reçues aux données stockées pour déterminer des objets. Dans d'autres mises en œuvre, le véhicule peut être configuré pour déterminer des objets sur la base du contexte des données. Par exemple, les panneaux de signalisation liés à la construction peuvent généralement avoir une couleur orange. Par conséquent, le véhicule peut être configuré pour détecter des objets qui sont orange et situés près du côté des routes en tant que panneaux de signalisation liés à la construction. De plus, lorsque le système de traitement du véhicule détecte des objets dans les données capturées, il peut également calculer une confiance pour chaque objet.

III. Exemples de champs de vision de capteur de véhicule

FIGUE. 4 illustre un exemple de véhicule autonome 400 ayant différents champs de vision des capteurs. Comme discuté précédemment par rapport à la Fig. 2 , un véhicule 400 peut contenir une pluralité de capteurs. Les emplacements des différents capteurs peuvent correspondre aux emplacements des capteurs décrits à la Fig. 2 . Cependant, dans certains cas, les capteurs peuvent avoir d'autres emplacements. Les emplacements des capteurs sont omis de la Fig. 4A pour la simplicité du dessin. Pour chaque unité de capteur du véhicule 400, FIGUE. 4A montre un champ de vision respectif. Le champ de vision d'un capteur peut comprendre une région angulaire sur laquelle le capteur peut détecter des objets et une plage qui correspond à la distance maximale du capteur à laquelle le capteur peut détecter des objets de manière fiable.

Comme indiqué précédemment, un véhicule 400 peut comprendre six radars. Une première unité radar peut être située à l'avant gauche du véhicule et avoir un champ de vision angulaire correspondant à la portion angulaire de champ de vision 402A. Un deuxième radar peut être situé à l'avant droit du véhicule et avoir un champ de vision angulaire correspondant à la partie angulaire du champ de vision 402B. Un troisième radar peut être situé à l'arrière gauche du véhicule et avoir un champ de vision angulaire correspondant à la partie angulaire du champ de vision 402C. Un quatrième radar peut être situé à l'arrière droit du véhicule et avoir un champ de vision angulaire correspondant à la partie angulaire du champ de vision 402D. Un cinquième radar peut être situé sur le côté gauche du véhicule et avoir un champ de vision angulaire correspondant à la partie angulaire du champ de vision 402E. Un sixième radar peut être situé sur le côté droit du véhicule et avoir un champ de vision angulaire correspondant à la partie angulaire du champ de vision 402F. Chacune des six unités radar peut être configurée avec une largeur de faisceau balayable de 90 degrés ou plus, par exemple. Une largeur de faisceau radar peut être inférieure à 90 degrés, mais chaque unité radar peut être en mesure de diriger le faisceau radar sur tout le champ de vision.

Une première unité lidar du véhicule 400 peut être configuré pour balayer la totalité ou dans la totalité de la région à 360 degrés autour du véhicule, comme indiqué par un champ de vision angulaire correspondant à la partie angulaire du champ de vision 404. Une deuxième unité lidar du véhicule 400 peut être configuré pour balayer une région plus petite que la région à 360 degrés autour du véhicule. Dans un exemple, la deuxième unité lidar peut avoir un champ de vision de 5 à 15 degrés dans le plan horizontal, comme indiqué par un champ de vision angulaire correspondant à la partie angulaire du champ de vision 404.

De plus, le véhicule peut également comprendre au moins une caméra. La caméra peut être une caméra optique et/ou une caméra infrarouge. La caméra peut avoir un champ de vision angulaire correspondant à la partie angulaire du champ de vision 408.

En plus du champ de vision pour chacun des différents capteurs de véhicule 400, chaque capteur peut également avoir une plage correspondante. Dans un exemple, la portée des unités radar peut être supérieure à la portée de l'une ou l'autre des unités lidar, comme le montre le champ de vision des unités radar 402UNE-402E s'étendant au-delà des champs de vision des unités lidar 404 et 406. De plus, la première unité lidar peut avoir une portée qui est supérieure à une portée de la seconde unité lidar, comme illustré par le champ de vision 404 s'étendant au-delà du champ de vision 406. La caméra peut avoir une portée indiquée par l'étendue du champ de vision 408. Dans divers exemples, la portée de la caméra peut être supérieure ou inférieure à la portée des autres capteurs.

Il doit être compris que les champs de vision des capteurs, les unités radar, etc. de la Fig. 4 sont représentés à titre d'exemple et ne sont pas à l'échelle.

IV. Exemples de systèmes et de méthodes

Des exemples de systèmes et de procédés de la présente divulgation seront maintenant décrits plus en détail.

FIGUE. 5 est un organigramme d'une méthode 500, selon un exemple de réalisation. Méthode 500 peut inclure une ou plusieurs opérations, fonctions ou actions illustrées par un ou plusieurs blocs 502-508. Bien que les blocs de chaque procédé soient illustrés dans un ordre séquentiel, ces blocs peuvent dans certains cas être exécutés en parallèle et/ou dans un ordre différent de ceux décrits ici. De plus, les divers blocs peuvent être combinés en moins de blocs, divisés en blocs supplémentaires et/ou supprimés en fonction de la mise en œuvre souhaitée.

De plus, pour la méthode 500, et d'autres processus et procédés décrits ici, les organigrammes montrent la fonctionnalité et le fonctionnement d'une mise en œuvre possible des présents modes de réalisation. A cet égard, chaque bloc peut représenter un module, un segment, une partie d'un processus de fabrication ou d'exploitation, ou une partie de code de programme, qui comprend une ou plusieurs instructions exécutables par un processeur pour mettre en œuvre des fonctions logiques spécifiques ou des étapes du processus. . Le code de programme peut être stocké sur tout type de support lisible par ordinateur, par exemple, tel qu'un dispositif de stockage comprenant un disque ou un disque dur. Le support lisible par ordinateur peut comprendre un support lisible par ordinateur non transitoire, par exemple, tel qu'un support lisible par ordinateur qui stocke des données pendant de courtes périodes comme une mémoire de registre, un cache de processeur et une mémoire à accès aléatoire (RAM). Le support lisible par ordinateur peut également comprendre des supports non transitoires, tels qu'un stockage secondaire ou persistant à long terme, comme une mémoire morte (ROM), des disques optiques ou magnétiques, une mémoire morte à disque compact (CD-ROM), par exemple. Le support lisible par ordinateur peut également être tout autre système de stockage volatile ou non volatile. Le support lisible par ordinateur peut être considéré comme un support de stockage lisible par ordinateur, par exemple, ou un dispositif de stockage tangible.

En plus ou en alternative, pour la méthode 500, et d'autres processus et procédés décrits ici, un ou plusieurs blocs dans l'organigramme peuvent représenter des circuits qui sont câblés pour exécuter les fonctions logiques spécifiques dans le processus.

Dans certains exemples, pour la méthode 500, et d'autres processus et méthodes divulgués ici, les fonctions décrites dans l'organigramme peuvent être exécutées par un seul véhicule (par exemple, un véhicule 100, 200, etc.), répartis entre plusieurs véhicules, effectués par un serveur distant/système informatique externe (par exemple, des systèmes 302 et 306), et/ou réalisée par une combinaison d'un ou plusieurs systèmes informatiques externes et d'un ou plusieurs véhicules, entre autres possibilités. De plus, les fonctions décrites dans l'organigramme peuvent être exécutées par un ou plusieurs processeurs du système de contrôle du véhicule et/ou par une ou plusieurs puces qui contrôlent le fonctionnement d'un ou plusieurs des capteurs du véhicule.

Au bloc 502, méthode 500 implique la réception, d'un ou plusieurs capteurs associés à un véhicule autonome, des données de capteur associées à un objet cible dans un environnement du véhicule autonome pendant une première condition environnementale, où au moins un capteur du ou des capteurs est configurable pour être associé avec l'un d'une pluralité de volumes de champ de vision opérationnel, et où chaque volume de champ de vision opérationnel représente un espace dans lequel le au moins un capteur est censé détecter des objets à l'extérieur du véhicule autonome à un niveau de confiance minimum.

Au bloc 504, méthode 500 implique, sur la base des données du capteur, la détermination d'au moins un paramètre associé à l'objet cible.

Au bloc 506, méthode 500 implique la détermination d'une dégradation du au moins un paramètre entre les données de capteur et les données de capteur passées, les données de capteur passées étant associées à l'objet cible dans l'environnement pendant une seconde condition environnementale différente de la première condition environnementale.

Au bloc 508, méthode 500 implique, sur la base de la dégradation déterminée du au moins un paramètre, l'ajustement du volume de champ de vision de fonctionnement du au moins un capteur à un autre de la pluralité de volumes de champ de vision de fonctionnement.

Dans certains modes de réalisation, la méthode 500 peut être répété sur plusieurs images de caméra successives (c'est-à-dire des images) de l'objet cible et/ou sur plusieurs instances successives de capture de données lidar associées à l'objet cible, et peut être effectué en utilisant le même ou plusieurs capteurs ou en utilisant d'autres capteurs. Cette répétition peut aider à valider la décision du volume de champ de vision opérationnel à sélectionner et peut aider à vérifier si une dégradation déterminée était due à un changement des conditions environnementales par opposition à d'autres facteurs (par exemple, la dérive du capteur).

Le ou les capteurs impliqués dans la méthode 500 peut comprendre un ensemble d'un ou plusieurs capteurs lidar, un ensemble d'un ou plusieurs capteurs radar, et/ou un ensemble d'une ou plusieurs caméras (fonctionnant dans diverses bandes de longueur d'onde, y compris visible et infrarouge), parmi d'autres types de capteurs possibles. En pratique, tous les capteurs d'un type particulier peuvent être configurés pour avoir le même volume de champ de vision opérationnel, de sorte que le logiciel du véhicule qui reçoit et traite les données des capteurs est configuré pour traiter tous les capteurs du type particulier comme ayant le volume de champ de vision opérationnel .Par exemple, par temps clair, dans des conditions environnementales diurnes, toutes les caméras du véhicule peuvent avoir un champ de vision opérationnel de 150 mètres et tous les capteurs lidar du véhicule peuvent avoir un champ de vision opérationnel de 200 mètres. Dans ce sens, le fait de régler un volume de champ de vision pour au moins un des capteurs du véhicule peut impliquer de faire le même réglage de champ de vision pour chaque capteur d'un type de capteur particulier. Par exemple, si le système du véhicule détermine un ajustement à apporter aux capteurs lidar en fonction de l'environnement de fonctionnement du véhicule, le système du véhicule peut effectuer l'ajustement à tous les capteurs lidar du véhicule. D'autres exemples sont également possibles. En outre, dans d'autres modes de réalisation, les volumes de champ de vision de capteur de fonctionnement peuvent être configurés individuellement, de sorte qu'un capteur d'un type de capteur particulier peut être configuré pour avoir un volume de champ de vision de fonctionnement différent d'un autre capteur du même type de capteur.

Le ou les capteurs peuvent comprendre un ou plusieurs capteurs montés à un ou plusieurs emplacements par rapport au véhicule. Dans certains modes de réalisation, par exemple, le ou les capteurs peuvent être constitués de capteurs montés sur le véhicule, tels qu'une caméra montée à un endroit sur le véhicule et un capteur lidar monté à un endroit différent sur le véhicule, deux caméras ou plus montées à différents endroits du véhicule, ou au moins deux capteurs lidar montés à différents endroits du véhicule. Dans d'autres modes de réalisation, le ou les capteurs peuvent comprendre plusieurs capteurs, dont au moins un est monté sur le véhicule, et dont au moins un autre est monté sur un véhicule différent. Dans encore d'autres modes de réalisation, au moins un du ou des capteurs peut être monté sur un objet fixe le long d'une route sur laquelle le véhicule se déplace ou est amené à se déplacer. L'objet fixe peut être un poteau téléphonique, un panneau routier (par exemple, un panneau d'arrêt), un feu de circulation ou un bâtiment, entre autres possibilités. Dans les modes de réalisation où au moins un capteur est distant du véhicule, un serveur ou un autre dispositif informatique peut être utilisé pour faciliter la communication des données de capteur du ou des capteurs distants au système du véhicule. Par exemple, les données de capteur obtenues par un capteur sur un objet fixe peuvent être transmises via un serveur au système du véhicule lorsque le véhicule s'approche ou passe à côté de l'objet fixe.

Une condition environnementale peut être ou inclure un temps clair (par exemple, ensoleillé, pas couvert, pas de pluie, de neige ou de brouillard), le jour (par exemple, une période allant du lever au coucher du soleil), la nuit (par exemple, une période allant du du coucher au lever du soleil), un temps pluvieux, neigeux, brumeux, couvert (par exemple, plus de nuages ​​et moins de lumière) et/ou un état de propreté du capteur dans lequel le véhicule a détecté qu'un ou plusieurs capteurs du véhicule ont de la saleté , des gouttelettes d'eau, de la glace/du givre, des projections d'insectes, de l'huile, de la saleté de la route ou une autre substance obstruant leurs couvercles/fenêtres ou toute autre surface. D'autres conditions environnementales sont possibles. En outre, la condition environnementale peut être ou inclure une combinaison de conditions. Par exemple, une condition environnementale peut être un temps clair, ensoleillé, des conditions environnementales diurnes (par exemple, 11h00 et ensoleillé). Comme autre exemple, un environnement de fonctionnement peut être une condition environnementale diurne brumeuse ou une condition environnementale diurne pluvieuse. De plus, dans certains exemples, il peut exister des conditions environnementales ayant des degrés variables de conditions météorologiques, telles qu'une forte tempête de neige et/ou du vent, une forte pluie et/ou un vent, ou une densité de brouillard dépassant un seuil prédéfini, entre autres possibilités.

L'objet cible peut être un objet dans l'environnement du véhicule qui a des propriétés susceptibles d'avoir un effet attendu sur le au moins un paramètre déterminé à partir des données de capteur associées à l'objet cible. Des exemples de telles propriétés peuvent inclure un ou des matériaux particuliers dont l'objet cible est fait (par exemple, le bois), une réflectivité des surfaces de l'objet cible, une couleur de l'objet cible, une taille de l'objet cible, une forme de la objet cible, si l'objet est statique ou dynamique, et si l'objet cible a des angles aigus qui pourraient affecter la luminosité de l'objet cible à différents angles d'observation. Dans certains modes de réalisation, il peut être souhaitable que l'objet cible soit un objet qui est fait d'un matériau qui a une faible réflectivité (par exemple, du bois) et qui a une forme (par exemple, sensiblement ronde, avec des angles vifs minimes ou inexistants) qui être moins susceptible de provoquer une variation dans l'au moins un paramètre lorsque des données de capteur sont obtenues pour l'objet à différents angles d'observation. Par exemple, l'objet cible peut être un poteau téléphonique en bois qui a une faible réflectivité attendue et qui devrait avoir un contraste plus élevé par rapport à un horizon par temps clair. D'autres exemples d'objets cibles sont également possibles, tels que des bâtiments, des ponts ou d'autres objets fabriqués par l'homme.

Dans certains modes de réalisation, l'objet cible peut être un objet ou un groupe d'objets qui est délibérément placé dans l'environnement pour faciliter les procédés divulgués. Par exemple, l'objet cible peut être fabriqué avec une surface noire peu réfléchissante et une conception ronde simple. En plus ou en variante, l'objet cible peut être équipé d'un ou plusieurs marqueurs de repère qui ont des propriétés connues. Dans d'autres modes de réalisation, l'objet cible peut être un objet qui n'est pas délibérément placé dans l'environnement dans le but d'aider avec les procédés divulgués, mais qui est plutôt déduit de l'environnement au fil du temps de sorte qu'un profil de l'objet puisse être construit. Par exemple, lorsque différents véhicules passent à côté d'un poteau téléphonique, les données de capteur associées au poteau téléphonique (par exemple, des images ou des données d'intensité lidar) peuvent être acquises et utilisées pour générer un profil statistique qui indique diverses propriétés de l'objet ainsi que la façon dont souvent, l'objet est rencontré par des véhicules. Par exemple, le profil statistique peut indiquer si l'objet est un objet statique qui ne devrait pas se déplacer dans l'environnement, ou s'il s'agit plutôt d'un objet dynamique qui se déplace de petites quantités de manière prévisible ou imprévisible. Le profil statistique peut également indiquer une ou plusieurs propriétés optiques de l'objet en fonction de la position du capteur. D'autres exemples sont également possibles.

Lorsque les propriétés de l'objet cible sont connues, la variance des paramètres déterminés à partir des données de capteur associées à l'objet cible peut être attribuée avec une plus grande confiance aux conditions environnementales changeantes (par exemple, la météo et/ou l'heure de la journée), par opposition à l'incertitude. concernant l'objet et ses propriétés.

Les données de capteur passées peuvent comprendre des données de capteur qui ont été reçues d'au moins l'un des un ou plusieurs capteurs et/ou des données de capteur qui ont été reçues d'autres capteurs ou d'une autre source. Les données de capteur passées peuvent être reçues pendant la période de temps pendant laquelle un profil statistique de l'objet cible est développé, ou à un moment ultérieur.

Comme indiqué ci-dessus, les données de capteur passées sont associées à l'objet cible dans l'environnement pendant une seconde condition environnementale différente de la première condition environnementale. Par exemple, les données passées du capteur peuvent inclure des images de l'objet cible, ou des données lidar représentant l'objet cible, par temps clair et à une heure particulière de la journée (par exemple, 10h00), tandis que le capteur les données peuvent inclure des images de l'objet cible, ou des données lidar représentant l'objet cible, par temps pluvieux, brumeux ou neigeux et au même moment de la journée que les données du capteur passées (par exemple, 10h00) ou au cours de la même partie de la journée (par exemple, le matin, la journée).

Les données de capteur peuvent inclure une ou plusieurs images d'une ou plusieurs caméras, des données lidar (par exemple, des données de nuage de points 3D, y compris l'intensité du point) d'un ou plusieurs capteurs lidar, et/ou d'autres types de données de capteur provenant d'autres types de capteurs. De même, les données de capteur passées peuvent inclure une ou plusieurs images passées d'une ou plusieurs caméras, des données lidar passées (par exemple, des données de nuage de points 3D, y compris l'intensité du point) d'un ou plusieurs capteurs lidar, et/ou d'autres types de données de capteur passées. d'autres types de capteurs.

Dans certains modes de réalisation, le au moins un paramètre que le système de véhicule détermine sur la base des données de capteur peut comprendre une valeur comparant l'objet cible et une autre zone de l'environnement représentée dans les données de capteur. Par exemple, dans une situation dans laquelle les données du capteur comprennent une ou plusieurs images, le au moins un paramètre peut comprendre un rapport de contraste entre, ou une autre valeur comparant, l'objet cible représenté dans la ou les images et l'horizon représenté dans le une ou plusieurs images. L'utilisation du rapport de contraste peut être un indicateur fiable du moment où un champ de vision opérationnel doit être ajusté, car le contraste peut se dégrader avec la distance par temps de neige ou de brouillard.

De plus ou en variante, le au moins un paramètre peut comprendre une valeur comparant un bord de l'objet cible dans la ou les images avec une autre zone de la ou des images, telle qu'une zone qui représente l'horizon, la route ou un autre objet. Par exemple, le au moins un paramètre peut inclure un rapport entre, ou une autre valeur comparant, une intensité de bord d'un ou plusieurs bords de l'objet cible avec une intensité de bord d'un ou plusieurs bords d'un autre objet représenté dans la ou les images .

Dans d'autres modes de réalisation, le au moins un paramètre peut comprendre une intensité lidar provenant de faisceaux laser réfléchis par l'objet cible et/ou une quantité de faisceaux laser réfléchis par l'objet cible. Dans encore d'autres modes de réalisation, le au moins un paramètre peut comprendre une valeur comparant une intensité ou une quantité de faisceaux laser lidar réfléchis par l'objet cible avec une intensité ou une quantité de faisceaux laser lidar réfléchis par un autre objet dans l'environnement, tel que la route, un bâtiment ou un autre véhicule.

Des exemples de techniques pour déterminer une dégradation du au moins un paramètre seront maintenant décrits plus en détail en relation avec les Fig. 6A-6B et les Fig. 7A-7B .

FIGUES. 6A et 6B représentent des exemples d'images qui peuvent être utilisées pour déterminer une dégradation d'un rapport de contraste ou d'une autre valeur comparant l'objet cible à l'horizon représenté dans les images. L'horizon peut être un indicateur fiable de dégradation, bien que d'autres zones des images puissent être utilisées à la place.

FIGUE. 6A représente une image 600 et une image passée 602, dont chacun représente un objet cible 604 et un horizon 606. En particulier, l'objet cible 604 dans les images 600, 602 peut être une limite forestière. Image 600 représente l'objet cible 604 et l'horizon 606 pendant la journée, conditions météorologiques de neige et image passée 602 représente l'objet cible 604 et l'horizon 606 pendant une journée, par temps clair.

FIGUE. 6A représente également une version segmentée 608 de l'image passée 602, en particulier celui qui a été divisé en une pluralité de régions rectangulaires d'azimut/élévation. Ces régions sont des exemples représentatifs de la manière dont les images peuvent être utilisées dans le but de déterminer une dégradation du au moins un paramètre, et il doit être compris que d'autres formes, tailles et quantités de régions peuvent être utilisées dans des exemples alternatifs. Par exemple, le système du véhicule peut n'utiliser que des régions des images 600, 602 qui comprennent au moins une partie de l'objet cible 604. En outre, dans certains exemples, le système de véhicule peut être configuré pour ignorer ou supprimer des régions correspondant à des objets dynamiques dans l'environnement (par exemple, des voitures ou des nuages). De plus, dans d'autres exemples, le système de véhicule peut sélectionner les régions à utiliser sur la base de données cartographiques prédéterminées qui indiquent un emplacement connu de l'objet cible. 604.

Dans un exemple de processus pour déterminer la dégradation du rapport de contraste entre l'objet cible 604 et l'horizon 606, le système du véhicule peut calculer une transformée de Fourier 610 de l'image 600 et peut calculer une transformée de Fourier 612 de l'image passée 602. transformée de Fourier 610 et transformée de Fourier 612 sont chacun représentés comme étant segmentés de la même manière que la version segmentée 608 de l'image passée 602, de sorte que chaque région de la transformée de Fourier prend la forme d'un tracé de la densité spectrale de puissance en azimut/élévation de la région correspondante de l'image originale respective. Dans certains exemples, chacune des transformées de Fourier peut être apodisée avec un cosinus surélevé.

Ensuite, le système du véhicule peut calculer un rapport de transformée de Fourier 610 à transformée de Fourier 612. En particulier, le système de véhicule peut calculer un rapport de chacune d'une ou plusieurs des régions rectangulaires dans la transformée de Fourier 610 à la région correspondante dans la transformée de Fourier 612, y compris, mais sans s'y limiter, une ou plusieurs régions qui correspondent à l'objet cible 604. A titre d'exemple, la fig. 6A représente une image 614 indiquant un rapport de chaque région dans la transformée de Fourier 610 à chaque région correspondante dans la transformée de Fourier 612. FIGUE. 6B représente une version plus grande de l'image 614. FIGUES. 6A et 6B représentent également une boîte englobante mettant l'accent sur une zone d'intérêt particulière 616 dans les images 600, 602, les transformées de Fourier 610, 612, et image 614. En particulier, la zone d'intérêt 616 comprend des régions d'intérêt qui correspondent à l'endroit où la limite forestière rencontre l'horizon 606 dans les images 600, 602, ainsi que d'autres régions limitrophes des régions d'intérêt.

De l'image 614, le système de véhicule peut être configuré pour identifier quelles régions indiquent la plus grande différence entre l'image 600 et image passée 602— c'est-à-dire quelles régions ont le rapport le plus élevé — et d'utiliser cette/ces région(s) pour déterminer comment régler le volume du champ de vision opérationnel. Par exemple, la région 618 montré à la Fig. 6B peut indiquer le degré de dégradation le plus élevé (par exemple, environ quatre ordres de grandeur de dégradation du proxy de contraste (-40 dB), comme indiqué).

Sur la base du ou des ratios calculés, et en outre sur la base d'une plage de l'objet cible 604 à la ou aux caméras dont les images 600, 602 ont été reçues, le système du véhicule peut déterminer une dégradation du rapport de contraste. La portée de l'objet cible 604 peut être connue du système du véhicule, par exemple à partir de données cartographiques préexistantes, de données GPS et/ou d'autres données, ou peut être estimée à l'aide de données acquises avec le ou les capteurs, telles qu'une image passée par temps clair 602 et/ou des données lidar pour un ou plusieurs objets dans l'image passée 602.

Dans certains exemples, la dégradation du rapport de contraste peut être représentée par l'équation 1, où C_o est le contraste entre l'objet cible 604 et l'horizon 606 dans un état neigeux (ou brumeux) (par exemple, C_o=1 pour un objet cible noir), k est la longueur d'extinction et d est la distance jusqu'à l'objet cible 604.


C=C_o*exp(−k*d) (Équation 1)

Ainsi, pour chaque région, le logarithme népérien du rapport de C à C_o peut fournir un k*d pour cette région, à partir duquel k peut être estimé en utilisant une valeur connue pour d. Par exemple, si la région 618 (−40 dB) se situe à environ 1000 mètres sur la route, k peut être déterminé comme indiqué dans les équations 2-5.


20*log10(C/C_o)=40 (Équation 2)


C/C_o=100 (Équation 3)


ln(C/C_o)=ln(100)=4.6=k*d (Équation 4)


k=4,6/(1000 mètres) = 0,0046 (Équation 5)

Dans d'autres modes de réalisation, les transformées de Fourier 610, 612 peuvent être comparés de différentes manières, autres qu'un rapport.

Certaines zones (par exemple, des pixels) dans les images montrées sur les Fig. 6A-6B peuvent correspondre à des distances respectives entre les objets et la ou les caméras (par exemple, pixel 250 peut correspondre à une distance au sol d'environ 50 à 70 mètres d'une ou plusieurs caméras). Ainsi, dans un autre exemple de processus pour déterminer une dégradation du au moins un paramètre, le système de véhicule peut être configuré pour prendre une moyenne sur plusieurs régions, chacune correspondant à approximativement la même distance, c'est-à-dire une distance à laquelle l'objet cible 604 est estimée ou connue pour être localisée.

Pour faciliter cela, par exemple, le système de véhicule peut être configuré pour calculer une pluralité de rapports de (i) une première pluralité de régions dans la transformée de Fourier 610 qui correspondent à l'objet cible 604 et correspondent en outre à d'autres parties de l'environnement qui sont situées approximativement à la même distance à la ou aux caméras qu'à une distance de l'objet cible 604 aux une ou plusieurs caméras à (ii) une seconde pluralité de régions dans la transformée de Fourier 612 qui correspondent à l'objet cible 604 et correspondent en outre aux autres parties de l'environnement. A la fois la première pluralité de régions et la seconde pluralité de régions peuvent avoir la même quantité de régions. Comme le montre la Fig. 6B , par exemple, région 618 et région 620 peut être utilisé.

Pour une approximation appropriée, par exemple, le système de véhicule peut ensuite calculer un rapport moyen en additionnant la pluralité de rapports et en divisant cette somme par la quantité de régions. Par exemple, le système du véhicule peut prendre le rapport signal sur bruit moyen de toutes les régions contenant des pixels 250 (par exemple, les régions de la même rangée que la région 618, comme la région 620). Sur la base du rapport moyen, et en outre sur la base d'une plage de l'objet cible 604 à la ou aux caméras dont les images 600, 602 ont été reçues, le système du véhicule peut déterminer une dégradation du rapport de contraste, par exemple en utilisant la technique décrite ci-dessus par rapport à l'équation 1.

Dans certains exemples, le système de véhicule peut utiliser plusieurs régions ayant des objets cibles à différentes distances. Par exemple, le système du véhicule peut calculer k pour la région 618 et peut calculer k pour la région 622, où la région 622 peut correspondre à un autre objet cible dans l'environnement, tel qu'un autre arbre, à une distance connue approximativement égale à la distance de l'objet cible 604. Si la neige (ou le brouillard, etc. dans d'autres situations) a une densité sensiblement uniforme, la valeur calculée de k pour la région 622 peut être approximativement la même que la valeur calculée de k pour la région 618.

En plus ou en alternative à l'utilisation de la technique décrite ci-dessus, le système de véhicule peut mettre en œuvre des techniques de détection de contour pour déterminer la dégradation du au moins un paramètre dans certains exemples.

Dans un exemple de processus pour déterminer la dégradation du rapport de contraste entre l'objet cible 604 et l'horizon 606 à l'aide de techniques de détection de contour, le système de véhicule peut convoluer un noyau de détection de contour bidimensionnel (par exemple, un noyau de détection de contour avec un filtre de différence de Gauss (DoG)) avec la ou les images pour déterminer les premières intensités de contour dans l'une ou plusieurs images, et peut convoluer le noyau de détection de bords bidimensionnel avec la ou les images passées pour déterminer les intensités de deuxième bord dans la ou les images passées. FIGUE. 7A montre une image 700 et une image passée 702 après la convolution, où l'image 700 représente l'objet cible 604 et l'horizon 606 pendant la journée, les conditions météorologiques de neige et l'image passée 702 représente l'objet cible 604 et l'horizon 606 pendant une journée, par temps clair. Comme dans l'exemple précédent, l'objet cible 604 est la limite des arbres, bien que d'autres objets puissent être utilisés dans d'autres exemples. FIGUE. 7A représente également un exemple d'image passée de référence 704 avant la convolution.

Ensuite, le système de véhicule peut additionner les premières intensités de bord dans chacune d'une ou plusieurs premières régions d'une ou plusieurs images qui correspondent à l'objet cible, et peut additionner les deuxièmes intensités de bord dans chacune d'une ou plusieurs deuxièmes régions de l'un ou plusieurs images passées qui correspondent à l'objet cible. FIGUE. 7A , par exemple, représente une version segmentée 706 de l'image 700 et une version segmentée 708 de l'image passée 702. Dans l'exemple illustré, chaque image 706, 708 a été divisé en une pluralité de régions rectangulaires d'azimut/élévation et les intensités de bord dans chaque région ont été additionnées. Il doit être compris que d'autres formes, tailles et quantités de régions peuvent être utilisées dans des exemples alternatifs.

FIGUES. 7A et 7B représentent également une boîte englobante mettant l'accent sur une zone d'intérêt particulière 710. Plus précisément, la zone d'intérêt 710 comprend des régions d'intérêt qui correspondent à l'endroit où la limite forestière (y compris l'objet cible 604) rencontre l'horizon 606 dans les images 700, 702, ainsi que d'autres régions limitrophes des régions d'intérêt. Dans certains exemples, le système du véhicule peut seulement additionner les intensités de bord dans une zone d'intérêt particulière d'une image, et non sur une image entière.

Le système de véhicule peut ensuite calculer un ou plusieurs rapports des premières intensités de bord additionnées dans chacune des une ou plusieurs premières régions aux secondes intensités de bord additionnées dans chacune des une ou plusieurs secondes régions. A titre d'exemple, la fig. 7A représente une image 712 indiquant un rapport de chaque région dans l'image 708 à chaque région correspondante dans l'image 706. FIGUE. 7B représente une version plus grande de l'image 712.

De l'image 712, le système de véhicule peut être configuré pour identifier quelles régions indiquent la plus grande différence entre l'image 700 et image passée 702— c'est-à-dire quelles régions ont le rapport le plus élevé — et d'utiliser cette/ces région(s) pour déterminer comment régler le volume du champ de vision opérationnel. Par exemple, la région 714 montré à la Fig. 7B peut indiquer le degré de dégradation le plus élevé.

Sur la base du ou des ratios calculés, et en outre sur la base d'une plage de l'objet cible 604 à la ou aux caméras dont les images 700, 702 ont été reçues, le système du véhicule peut déterminer une dégradation du rapport de contraste, par exemple en utilisant la technique décrite ci-dessus par rapport à l'équation 1.

Dans d'autres modes de réalisation, les images 706, 708 peuvent être comparés de différentes manières, autres qu'un rapport.

Dans certains exemples, le système du véhicule peut être configuré pour prendre une moyenne sur plusieurs régions d'images 706 et 708, chaque région correspondant approximativement à la même distance, c'est-à-dire une distance à laquelle l'objet cible 604 est estimée ou connue pour être localisée.

Pour faciliter cela, par exemple, le système de véhicule peut être configuré pour (i) additionner les premières intensités de bord dans chacune d'une première pluralité de régions d'image 700 qui correspondent à l'objet cible 604 et correspondent en outre à d'autres parties de l'environnement qui sont situées approximativement à la même distance à la ou aux caméras qu'à une distance de l'objet cible 604 à la ou aux caméras et (ii) additionner les deuxièmes intensités de bord dans chacune d'une deuxième pluralité de régions de l'image passée 702 qui correspondent à l'objet cible 604 et correspondent en outre aux autres parties de l'environnement. A la fois la première pluralité de régions et la seconde pluralité de régions peuvent avoir la même quantité de régions.

Le système de véhicule peut ensuite calculer une pluralité de rapports des premières intensités de bord additionnées dans la première pluralité de régions aux secondes intensités de bord additionnées dans la seconde pluralité de régions. Par exemple, le système du véhicule peut calculer les rapports d'au moins une partie des régions montrées dans l'image 706 (chacun représentant une somme des intensités du premier bord dans cette région de l'image 700) à au moins une partie des régions correspondantes dans l'image 708 (chacun représentant une somme des intensités du second bord dans cette région de l'image 712).

Le système de véhicule peut ensuite calculer un rapport moyen en tant que somme de la pluralité de rapports divisée par la quantité de régions. Par exemple, le système du véhicule peut prendre le rapport signal sur bruit moyen de toutes les régions contenant des pixels 250 (par exemple, les régions de la même rangée que la région 710). Sur la base du rapport moyen, et en outre sur la base d'une plage de l'objet cible 604 à la ou aux caméras dont les images 700, 702 ont été reçues, le système du véhicule peut déterminer une dégradation du rapport de contraste, par exemple en utilisant la technique décrite ci-dessus par rapport à l'équation 1.

Dans certains modes de réalisation, le système de véhicule peut être configuré pour déterminer une dégradation de l'intensité des bords entre une ou plusieurs régions d'une ou plusieurs images (par exemple, une ou plusieurs des régions dans l'image 700 représentant l'objet cible 604) et une ou plusieurs régions correspondantes de la ou des images passées (par exemple, une ou plusieurs des régions de l'image passée 702 représentant l'objet cible 604), sans effectuer d'opérations qui déterminent une dégradation du taux de contraste. Le système du véhicule peut alors utiliser la dégradation déterminée de l'intensité des bords comme base pour ajuster le volume de champ de vision opérationnel d'au moins un des capteurs du véhicule.

Dans certains modes de réalisation, comme discuté ci-dessus, le au moins un paramètre peut comprendre une intensité lidar de faisceaux laser réfléchis par un objet cible dans l'environnement. Le système du véhicule peut utiliser des données lidar et des données lidar antérieures pour déterminer une dégradation de l'intensité lidar (par exemple, la dégradation représentée en dB/mètre) à partir des faisceaux laser réfléchis par l'objet cible entre les données lidar et les données lidar antérieures. Le système de véhicule peut alors utiliser la dégradation déterminée de l'intensité lidar comme base pour ajuster le volume de champ de vision de chacun d'au moins un des capteurs lidar du véhicule. Dans certains exemples, pour une dégradation donnée de l'intensité du lidar, la portée maximale du champ de vision de fonctionnement d'un capteur lidar peut être réduite d'un facteur égal à la racine carrée de la dégradation.

Comme indiqué ci-dessus, le ou les paramètres dégradés déterminés à partir d'images de caméra peuvent être utilisés comme base pour ajuster le volume de champ de vision de fonctionnement d'au moins un capteur lidar. De même, le ou les paramètres dégradés déterminés à partir des données lidar peuvent être utilisés comme base pour ajuster le champ de vision de fonctionnement d'au moins une caméra. Une des raisons à cela peut être que le contraste entre un objet cible et l'horizon se dégrade de la même manière que la lumière revient de l'objet cible. Dans certaines situations, par exemple, la distance d'un capteur lidar à laquelle environ 95 % de l'intensité lidar est perdue par décroissance exponentielle peut être approximativement la même distance que la distance à laquelle un contraste entre un objet cible (idéalement, un objet cible noir ) à l'horizon décroît de façon exponentielle jusqu'à environ 5 %.

Ainsi, l'action d'ajuster le volume de champ de vision de chacun des un ou plusieurs capteurs sur la base de la dégradation déterminée du au moins un paramètre peut impliquer l'ajustement du volume de champ de vision de chacun d'au moins une des une ou plusieurs caméras. et chacun au moins un des un ou plusieurs capteurs lidar sur la base d'une dégradation déterminée de l'intensité lidar entre les données lidar et les données lidar passées. En plus ou en variante, l'action d'ajuster le volume de champ de vision de chacun des un ou plusieurs capteurs sur la base de la dégradation déterminée du au moins un paramètre peut impliquer l'ajustement du volume de champ de vision de chacun d'au moins l'un des un ou plusieurs caméras et chacun au moins un des un ou plusieurs capteurs lidar sur la base d'une dégradation déterminée du rapport de contraste, de l'intensité des bords et/ou d'une autre valeur de paramètre entre la ou les images et la ou les images passées.

Par exemple, une fois que k est calculé pour la dégradation du contraste à l'aide des images de la caméra comme décrit ci-dessus, le système du véhicule peut calculer de combien un signal provenant du ou des capteurs lidar est atténué, car k pour les longueurs d'onde visibles par la caméra est susceptible d'être similaire à k pour les longueurs d'onde lidar. Par exemple, dans des conditions de neige ou de pluie, l'intensité de la lumière reçue peut être dégradée d'un facteur exp(−2k*d), où d est la distance jusqu'à l'objet cible, par rapport aux conditions météorologiques claires où k est approximativement égal à zéro. Le système du véhicule peut alors utiliser cette dégradation pour déduire le volume de champ de vision dégradé pour le ou les capteurs lidar dans la direction de l'objet cible.

Pour faciliter l'action d'ajuster le volume de champ de vision opérationnel du au moins un capteur à un autre de la pluralité de volumes de champ de vision opérationnel sur la base de la dégradation déterminée dans le au moins un paramètre, le système de véhicule peut stocker en mémoire (par exemple, stockage de données 114) un tableau ou une autre forme de données qui mappe chacune d'une ou plusieurs valeurs de paramètre (par exemple, rapport de contraste, intensité lidar, intensité de bord, etc.) à chacun d'un nombre fini/prédéterminé correspondant de volumes de champ de vision opérationnel. Ainsi, lorsque le système de véhicule détermine une dégradation, le système de véhicule peut sélectionner un autre de la pluralité de volumes de champ de vision de fonctionnement, en particulier celui qui correspond à la valeur de paramètre dégradée. Comme autre exemple, le système de véhicule peut déterminer la distance, l'azimut et/ou l'élévation d'un nouveau volume de champ de vision opérationnel sur la base de la dégradation déterminée. En outre, le tableau ou une autre forme de données peut également mapper chacun des nombres finis/prédéterminés de volumes de champ de vision opérationnel et/ou chacune des valeurs de paramètre correspondantes à une étiquette qui identifie la condition environnementale (par exemple, neige, brumeux ou clair) ou une combinaison de conditions environnementales (p. ex., jour et neige, ou jour et brouillard). La mémoire dans laquelle la table ou d'autres données sont stockées et à partir de laquelle on accède à la table ou à d'autres données peut être locale au véhicule (par exemple, dans une mémoire à bord du véhicule) ou peut être distante du véhicule (par exemple, une base de données accessible via un serveur).

Dans certains modes de réalisation, le nombre fini/prédéterminé correspondant de volumes de champ visuel d'exploitation peut comprendre plusieurs ensembles de volumes de champ visuel d'exploitation qui correspondent à l'une donnée des une ou plusieurs valeurs de paramètre, chaque ensemble ayant un nombre fini/prédéterminé de volumes d'exploitation. les volumes de champ de vision qui sont associés à un type donné de capteur (par exemple, un capteur lidar) ou à un capteur spécifique parmi un ou plusieurs capteurs (par exemple, un capteur lidar sur le côté gauche du véhicule). Par exemple, pour faciliter l'action d'ajuster le volume du champ de vision opérationnel d'un premier type de capteur sur la base de la dégradation d'au moins un paramètre déterminé à partir des données de capteur d'un second type de capteur différent, une valeur de paramètre peut être mappée sur deux ensembles de volumes de champ de vision opérationnel—un pour le premier type de capteur (par exemple, des caméras) et un autre pour le deuxième type de capteur (par exemple, des capteurs lidar).

Dans certains modes de réalisation, les données de capteur utilisées pour déterminer la dégradation peuvent être des données de capteur qui ne sont pas acquises par des capteurs montés sur le véhicule, mais la dégradation déterminée peut être utilisée comme base pour ajuster le volume du champ de vision opérationnel pour au moins l'un des les capteurs qui sont montés sur le véhicule. Par exemple, une caméra peut être montée sur un autre véhicule ou un feu de circulation à une intersection, et peut acquérir des images qu'un dispositif informatique autre que le système du véhicule (par exemple, un serveur ou un système de véhicule de l'autre véhicule) peut utiliser pour déterminer une dégradation du taux de contraste. Le dispositif informatique peut alors transmettre, au système du véhicule, un signal indiquant la dégradation déterminée, de sorte que le système du véhicule peut alors utiliser la dégradation déterminée comme base pour ajuster le champ de vision de fonctionnement d'une ou plusieurs des caméras et/ou capteurs lidar montés sur le véhicule. En variante, le dispositif informatique peut transmettre les images elles-mêmes au système du véhicule et le système du véhicule peut déterminer la dégradation. D'autres exemples sont également possibles.

Lors du réglage du volume du champ de vision opérationnel du au moins un capteur, le système de véhicule peut contrôler le véhicule pour qu'il fonctionne à l'aide du au moins un capteur ayant le volume du champ de vision opérationnel ajusté. C'est-à-dire que le système de véhicule peut contrôler le véhicule, tout en fonctionnant en mode autonome, pour acquérir des données de capteur à l'aide du au moins un capteur sur la base du volume de champ de vision de fonctionnement ajusté. Pour faciliter cela dans certains modes de réalisation, un système informatique local à bord du véhicule peut se régler lui-même pour ignorer les lectures de données de capteur acquises pendant le fonctionnement du véhicule qui dépassent la plage, l'azimut et/ou l'élévation respectifs associés au volume de champ de vision de fonctionnement ajusté pour chacun des au moins un capteur. De plus ou en variante, un système distant peut transmettre une instruction au système informatique local du véhicule qui, lors de la réception par le système informatique local, amène le système informatique local à commander le véhicule pour qu'il fonctionne dans un mode autonome dans lequel le système informatique local ignore les lectures de données de capteur qui dépassent la plage, l'azimut et/ou l'élévation respectifs associés au volume de champ de vision de fonctionnement ajusté pour chacun du au moins un capteur. D'autres exemples sont également possibles. Comme indiqué ci-dessus, le au moins un capteur ayant le volume de champ de vision de fonctionnement ajusté peut comprendre au moins un capteur qui est monté sur le véhicule et/ou au moins un capteur qui est situé à distance du véhicule mais qui est toujours utilisé par le système du véhicule pour faciliter le fonctionnement du véhicule.

Dans certains modes de réalisation, même si le volume de champ de vision de fonctionnement particulier qui est utilisé pour un capteur donné à un moment donné peut être inférieur à la valeur de champ de vision de fonctionnement maximale pour ce capteur et ce paramètre, le capteur peut toujours être configuré pour acquérir et transmettre au système du véhicule (par exemple, à un processeur configuré pour traiter les données de capteur) des données de capteur correspondant à une distance, un azimut et/ou une élévation au-delà d'une plage, d'un azimut et/ou d'une élévation respectifs associés à ce champ de fonctionnement particulier du volume de vue. Dans de tels modes de réalisation, le système du véhicule peut ignorer (par exemple, rejeter ou stocker mais pas utiliser comme base pour effectuer des déterminations sur l'environnement du véhicule, telles que des détections d'objets) des données de capteur correspondant à une distance, un azimut et/ou une élévation. qui est supérieur à une plage, un azimut et/ou une élévation respectifs associés au volume de champ de vision de fonctionnement particulier. Par exemple, si la portée d'un capteur lidar a été réduite de 200 mètres à 150 mètres, le système du véhicule peut ignorer les données du capteur correspondant à des distances du véhicule supérieures à 150 mètres. D'autres exemples sont également possibles. De plus ou en variante, le système du véhicule peut identifier (par exemple, signaler ou stocker une indication en mémoire indiquant que les données sont potentiellement suspectes) des données de capteur correspondant à une valeur de paramètre supérieure à une valeur de paramètre maximale du champ de vision de fonctionnement particulier. Dans d'autres modes de réalisation, un tel capteur peut être configuré de telle sorte que le capteur puisse se régler lui-même pour ne pas acquérir de données de capteur correspondant à des plages, des azimuts et/ou des élévations au-delà des plages, des azimuts et/ou des élévations respectifs associés au champ de fonctionnement particulier de volume de vue. De plus ou en variante, le capteur peut être configuré pour acquérir des données de capteur correspondant à des plages, des azimuts et/ou des élévations au-delà des plages, des azimuts et/ou des élévations respectifs associés au volume de champ visuel de fonctionnement particulier, mais en outre configuré pour rejeter ces données du capteur, de manière à réduire la quantité de données transmises du capteur à d'autres dispositifs informatiques du système du véhicule.

Dans certains modes de réalisation, les capteurs du véhicule et les dispositifs informatiques associés, tels qu'une puce (p. affecter la façon dont l'ordinateur de bord ou l'ordinateur à distance contrôle le fonctionnement du véhicule. En particulier, une telle puce de capteur peut effectuer une ou plusieurs opérations du procédé 500. Dans ce contexte, l'action d'ajuster le volume du champ de vision opérationnel peut impliquer que la puce du capteur ignore ou signale les données du capteur correspondant à des distances, des azimuts et/ou des élévations supérieurs aux distances, azimuts et/ou élévations respectifs associés au réglage volume du champ de vision opérationnel. De plus ou en variante, l'action d'ajuster le volume du champ de vision opérationnel peut impliquer la puce de capteur (i) ajustant un niveau de puissance d'une impulsion laser transmise par un ou plusieurs capteurs lidar lors de l'acquisition de données de capteur d'un premier niveau de puissance à une puissance ajustée. niveau différent du premier niveau de puissance et/ou (ii) acquérir des données de capteur en transmettant une ou plusieurs impulsions laser au niveau de puissance ajusté associé au volume de champ visuel de fonctionnement ajusté. D'autres exemples sont également possibles.

Par le terme « sensiblement », « approximativement » ou « environ » utilisé ici, on entend que la caractéristique, le paramètre, la valeur ou la planéité géométrique cités n'ont pas besoin d'être atteints exactement, mais que les écarts ou variations, y compris par exemple, les tolérances , une erreur de mesure, des limitations de précision de mesure et d'autres facteurs connus de l'homme de l'art, peuvent se produire dans des quantités qui n'excluent pas l'effet que la caractéristique était censée produire.

Bien que divers exemples d'aspects et exemples de modes de réalisation aient été décrits ici, d'autres aspects et modes de réalisation apparaîtront à l'homme du métier. Les divers exemples d'aspects et exemples de modes de réalisation divulgués ici sont à des fins d'illustration et ne sont pas destinés à être limitatifs, la véritable portée et l'esprit étant indiqués par les revendications suivantes.