Rapport P6 2019 04
Rapport P6 2019 04
Rapport P6 2019 04
STPI/P6/2018 - 2019
Objectifs du projet :
S'informer sur les voitures autonomes
Comprendre le fonctionnement des diérents systèmes de perception
Se forger un avis sur l'utilisation des véhicules autonomes
1 Historique 5
3.1 Le lidar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.1.1 Histoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.1.2 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.1.3 Fonctionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2.2 Fonctionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3 La caméra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4 Limite 18
Bibliographie 20
STPI/P6/2018 - 2019
3
Remerciements
Nous remercions Mr. Abdelaziz BENSRHAIR pour nous avoir encadrés et suivis tout au long de notre projet.
Nous remercions également Autonomous Labb pour nous avoir permis de monter à bord d'une de leurs voitures
autonomes, la participation de l'un des membres à l'une de leurs expériences a également permis à l'ensemble
du groupe de mieux comprendre le fonctionnement des véhicules autonomes.
STPI/P6/2018 - 2019
4
Organisation du travail
Notre projet a débuté le lundi 4 février 2019 et nous avons commencé par désigner Julien LECLERC comme
chef de projet. Il s'est donc occupé de la communication avec le professeur Mr. Abdelaziz BENSRHAIR, avec
l'Autonomous Lab et dans le groupe-même.
En ce qui concerne la récolte d'information, nous avons commencé par répartir les recherches sur les diérents
systèmes de perception en trois parties, chacune aectée à un binôme. Aurélia FONTAINE et Alexia GROSS
se sont occupées du Lidar, Julien LECLERC et Thileepan UMAPATHIPILLAI des capteurs ultrasons et enn,
Huaijin WANG et Tonglin YAN des caméras.
Une fois ce travail eectué, le premier binôme s'est chargé de l'intégration des systèmes de perception dans la
voiture autonomes, le deuxième binôme de l'historique de la voiture autonome et le troisième des limites et des
enjeux de celle-ci. Les dernières séances furent consacrées à la re-lecture du rapport, l'élaboration du poster et
la préparation à la soutenance orale.
STPI/P6/2018 - 2019
5
Chapitre 1
Historique
Les premières voitures sont apparues dans la deuxième moitié du XIXe siècle lors de la seconde révolution
industrielle, fondée sur l'utilisation de l'électricité et du pétrole. L'Europe fut le centre des découvertes, parti-
culièrement en France et en Allemagne. L'élément déclencheur de cette nouvelle révolution est la découverte du
moteur à explosion par Alphonse Beau de Rochas. Le marché de la voiture connaît une croissance exponentielle
depuis le début du XIXème siècle. En eet, le nombre de voitures en circulation pouvait être dénombré à 250
000 en 1907, contre 50 millions avant la Seconde Guerre Mondiale. Sa production sera d'autant plus accélérée
par la mise en place de l'assemblage à la chaîne instauré par le fordisme, la période des Trentes Glorieuses va
également permettre à l'automobile de connaître une forte croissance.
Le premier véhicule sans conducteur fut développé en 1977 au Japon dans le laboratoire de Tsukuba, ce
premier véhicule se déplaçait à la vitesse de 30 km/h et suivait un marquage an de ne pas sortir du circuit.
Du fait qu'il ne pouvait rouler sans ce marquage on ne peut pas réussir à classier ce premier véhicule selon les
diérents niveaux présentés ci-après. Aujourd'hui, les entreprises se lancent dans la course à la meilleure voiture
autonome. Comme le montre le graphique ci-dessous, les entreprises américaines sont les plus avancées dans ce
domaine.
Figure 1.1
La voiture est aujourd'hui un élément indispensable à la vie de nombreuses personnes, en eet celle-ci
apparaît comme être le moyen de transport le plus simple an de se déplacer rapidement lorsque l'on vit à
l'extérieur des grandes métropoles. Cependant le facteur humain peut rendre la conduite dangereuse causant de
nombreux décès sur les routes, c'est pourquoi depuis maintenant une vingtaine d'année les recherches liées aux
voitures autonomes n'ont cessé de prendre de l'ampleur. Que ce soit en Europe avec les constructeurs Renault
ou Mercedes, ou encore aux Etats-Unis avec l'entreprise Tesla, la voiture de demain sera, pour ces entreprises,
sans chaueur.
STPI/P6/2018 - 2019
6
L'automatisation des voitures peut être visualisée selon plusieurs niveaux liés à la capacité du véhicule à
réagir sans que le conducteur n'ait à réaliser d'actions. Ces niveaux sont classés selon leur degré d'autonomie :
Figure 1.2
La majorité des véhicules présents sur nos routes ont un niveau d'automatisation de degré 1, c'est-à-dire
que le conducteur est uniquement assisté à la conduite avec par exemple le régulateur de vitesse ou encore
l'assistance au freinage.
Le nombre de voitures autonomes sur les routes connaît un fort développement au début du XXIe siècle.
Les entreprises investissent de plus en plus dans les brevets concernant ce progrès technologique comme en
témoigne le graphique suivant. Les entreprises ont compris les enjeux liés au développement des ces véhicules
et des retombées économiques envisageables si elles pouvaient prendre de l'avance sur leurs concurrentes. Elles
développent donc des laboratoires qui se consacrent seulement à l'étude de la voiture autonome.
Figure 1.3
STPI/P6/2018 - 2019
7
L'usage de ces voitures sans conducteur est plus ou moins diciles suivant les pays. En eet, si par exemple,
sur les routes États-uniennes des camions sans conducteurs circulent déjà, en France la législation ne permet
en aucun cas de faire circuler des véhicules sans conducteur hors cadre expérimental. Les constructeurs vont
également devoir faire face au scepticisme des consommateurs au sujet des voitures autonomes. En eet comme
beaucoup de choses nouvelles cette avancée fait peur. De plus, même si la législation le permettait, la plupart
des consommateurs ne sont pas prêt à accueillir cette technologie. En eet, comme en témoigne le graphique
suivant, la plus grande crainte des consommateurs est qu'ils ne se sentiraient pas en sécurité dans ce type de
technologie.
Figure 1.4
STPI/P6/2018 - 2019
8
Chapitre 2
Les véhicules autonomes reposent sur la combinaison de plusieurs capteurs dans le but de fournir le maximum
d'informations pour garantir la sécurité et le bon fonctionnement. Les capteurs possèdent des rôles bien diérents
qui, une fois mis en relation, permettent de retranscrire une information able.
Les lidars recueillent des données sur la distance. Ainsi ils peuvent repérer des objets environnants jusqu'à
150m par le biais de lasers qui scannent à 360°. Cela permet de détecter les objets et de les catégoriser : voitures,
feux de signalisation, usagers piétons, arbres etc.
Les caméras surveillent l'état de la personne qui conduit mais également détectent les obstacles proches de
la voiture et conrment les informations reçues par les autres capteurs.
Les capteurs ultrasons ont pour rôle de détecter les obstacles proches. Ils sont utiles pour garder une certaine
distance avec l'objet ou l'obstacle présent devant la voiture, derrière la voiture ou sur les côtés. Ce principe
existe depuis longtemps avec les radars de recul.
Les radars, quant à eux, détectent des obstacles plus loin que ceux détectés avec les capteurs à ultrasons. Ils
utilisent les ondes électromagnétiques pour évaluer les distances entre l'obstacle et le véhicule.
Figure 2.1
STPI/P6/2018 - 2019
9
Chapitre 3
3.1 Le lidar
3.1.1 Histoire
L'invention des Lidars, aussi appelés télédétection par laser, remonte au début des années 1960. Les premiers
lasers, nommés lasers à rubis, inventés par Théodore Maiman, sont exploités pour la télémétrie ne à grande
distance. Dans les années 1962, les lidars ont permis de mesurer précisément la distance Terre-Lune. Ce projet
fut nommé Luna See. Le journal américain, New York Times, publia le 10 mai un article concernant cette
découverte : La nuit dernière, pour la première fois, un homme a illuminé un autre astre céleste [...]. Le rayon
fut produit par des ingénieurs du `Massachusetts Institute of Technology', utilisant un appareil connu sous le
nom de `laser'. Il produit un rayon étroit et d'une grande intensité. La réexion du rayon est ensuite détectée
par des moyens électroniques. Les chercheurs pensent que de tels appareils vont jouer un rôle majeur dans le
domaine des communications entre les véhicules aérospatiaux. De plus, selon eux, le principe du laser devrait
devenir un moyen ecace pour transmettre de l'énergie sur de longues distances.
L'utilité et la précision des systèmes lidar deviennent connues du grand public en 1971 lors de la mission
Apollo 1517, qui cartographie la Lune à l'aide d'un altimètre laser.
Concernant l'étymologie du lidar, il s'agissait au début de l'assemblage du mot light et radar .
Désormais, sa dénomination fait référence à l'acronyme de Light Detection And Ranging ou Laser Imaging
Detection And Ranging , à l'instar de radar (Radio Detection And Ranging) ou sonar (Sound Navigation &
Ranging).
3.1.2 Dénition
Un LiDAR se dénit comme suit : outil qui émet des lasers (faisceaux de lumière très concentrés) dans
diérentes directions autour de lui pour mesurer des distances par télémétrie Selon le Larousse, il s'agit d'une :
Mesure de distance obtenue par des procédés acoustiques, optiques ou radioélectriques.
À partir de la vitesse de l'onde lumineuse et de son temps de retour ainsi que de l'orientation et de la
position du lidar, l'appareil calcule la distance et la position des objets et des obstacles qui l'entourent. Plus
précisément, il positionne chaque point rencontré par l'onde dans un espace en 3 dimensions. Sa capacité à
envoyer de nombreux faisceaux optiques dans un temps très court permet de créer un nuage de points dense
qui modélise la réalité.
3.1.3 Fonctionnement
Parmi les systèmes de perception, le radar et le lidar possèdent un mode de fonctionnement similaire. Tous
deux émettent une onde électromagnétique cohérente et polarisée. Leur diérence provient du domaine spectral
des ondes électromagnétiques émises. En eet, le lidar utilise un panel de domaine allant de l'infrarouge à
l'ultraviolet en passant par le visible tandis que le radar, lui, se concentre sur le domaine des micro-ondes.
Concernant le spectre électromagnétique, le lidar utilise les longueurs d'onde allant de 10 nm à 0,1 mm et le
radar celles de 1 mm à 1 m. Une seconde diérence notable concerne le fait que l'onde située dans le domaine
visible est plus directive et peut interagir avec des objets de taille microscopique.
Le lidar se dénit par un capteur optique qui transmet des faisceaux laser vers une cible tout en parcourant
des itinéraires d'étude spéciques. Son fonctionnement peut être divisé en plusieurs phases.
STPI/P6/2018 - 2019
10
La première phase concerne l'émission du rayon laser. Les impulsions émises se reètent sur les objets situés
à la surface du sol mais également au-dessus puis sont renvoyées vers la source émettrice.
La réexion de l'onde constitue, quand à elle, la deuxième phase. L'impulsion laser rééchie est renvoyée
sur le capteur. Ainsi, nous comprenons aisément que la forme des objets va induire plusieurs retours d'onde.
Les impulsions laser émises, après réexion, vont être fractionnées en autant de retours qu'il existe de surfaces
réectrices. Néanmoins, la première impulsion laser renvoyée constitue le retour le plus important.
Le traitement de l'onde constitue la dernière étape. L'onde est détectée et analysée par les récepteurs situés
dans le Lidar. Ces récepteurs enregistrent précisement le temps qui s'écoule entre l'impulsion de l'onde et son
retour. Cette mesure est ensuite mise en relation avec les données fournies par des indicateurs de position tels
que le GPS et l'INS, puis traitée.
STPI/P6/2018 - 2019
11
Spectralement, à l'aide d'un ltre ne laissant passer qu'une gamme étroite autour de la longueur d'onde
du laser ou d'un interféromètre.
La détection dite hétérodyne constitue également un autre mode de traitement, identique à celui du radar.
Cette méthode de détection fut développée, dans un premier temps, pour le domaine des ondes radio et des
micro-ondes.
Un signal de faible amplitude (provenant de l'atmosphère) est associé à une onde issue d'un oscillateur local.
Le résultat de la superposition de ces deux ondes est ensuite envoyé sur le détecteur.
La fréquence résultant du produit des deux ondes est la somme ou la diérence entre les fréquences du signal
d'origine et de l'oscillateur local.
Figure 3.2 Onde et signal reçus par le détecteur dans le cadre de la détection hétérodyne
Tout comme la détection directe, l'onde reçue va ensuite être transformée en signal électrique à la sortie du
détecteur.
Le produit des deux ondes est obtenu en mélangeant le signal reçu de l'atmosphère et celui de l'oscilla-
teur local en ayant détecté les ondes superposées linéairement avec un photodétecteur, généralement appelé
photodiode.
Par exemple, nous pouvons utiliser un combinateur ou diviseur de faisceaux (comme l'illustre la gure 1)
pour aligner les deux rayons d'une telle manière qu'il y ait une correspondance de mode.
Cela signie que non seulement leurs prols d'intensité se chevauchent mais aussi que leurs longueurs d'onde
possèdent la même courbure (allure) sur le détecteur, ainsi les conditions d'interférences sont uniformes sur
toute la surface du détecteur. Cette observation n'est toutefois possible seulement dans le cas où les deux rayons
sont spatialement cohérent.
Avec un puissant oscillateur local, le signal hétérodyne résultant d'un faible signal d'entrée peut être d'autant
plus puissant qu'avec la détection directe. Dans cette mesure, la détection dite hétérodyne fournit un gain de
signal, même si il n'y a pas d'amplication optique impliquée.
STPI/P6/2018 - 2019
12
La réectivité est relative à la longueur d'onde utilisée, qui se situe généralement dans l'infrarouge proche.
La force des retours varie selon la composition de l'objet de surface qui reète le retour.
L'intensité est utilisée en tant qu'aide dans la détection et l'extraction d'entités, dans la classication des
points lidar et comme substitut d'imagerie aérienne lorsqu'il n'en existe aucune. L'intensité est relative et non
quantiable. Par conséquent, vous ne pouvez pas vous attendre à la même valeur provenant du même objet,
d'un trajet à l'autre.
Si vos données lidar comprennent des valeurs d'intensité, vous pouvez générer des images ressemblant à
des photos aériennes monochromes à partir de ces dernières. ArcGIS fournit la capacité de créer de l'imagerie
d'intensité à partir des données lidar.
Ainsi, l'institut supérieur coréen des sciences et technologies a mis en évidence deux failles dans le Lidar des
voitures autonomes.
La première concerne l'aveuglement du LiDAR. Ils ont réalisé une attaque par saturation. Cette technique
consiste à illuminer un lidar par un faisceau aussi puissant que le sien. Le lidar ne perçoit donc plus certains
objets environnants. Autrement dit, ces objets disparaissent en quelque sorte de la vue du Lidar, qui se retrouve
aveuglé.
La deuxième faille fut mise en évidence grâce à un processus nommé Spoong. Ce dernier consiste à simuler
la présence d'un objet. Pour déterminer si un objet est à proximité, le Lidar ne capture pas une image entière
de l'objet, il identie plutôt un nuage de points. L'attaque consiste donc à simuler un faux nuage de points, à
partir de la lumière, ce qui revient à simuler la présence d'un faux objet.
En eet, pour son système Autopilot, le constructeur mise plutôt sur l'ensemble composé par une batterie
de caméras analysant les éléments à 360 degrés grâce à une intelligence articielle et des réseaux neuronaux,
et par un radar qui permet de voir au-delà des obstacles immédiatement visibles, permettant d'anticiper un
ralentissement ou un accident avant même de le "voir", ainsi que par des capteurs ultrasoniques pour la détection
de proximité.
Tesla va donc plus loin et évoque donc, indirectement, l'inutilité d'utiliser des lidars.
STPI/P6/2018 - 2019
13
3.2.1 Dénition
La Tesla S, fabriquée par l'entreprise d'Elon Musk, possède 21 capteurs lui permettant de visualiser son
environnement. Parmi ces capteurs 12 sont des capteurs ultrasons et un est un radar, c'est pourquoi il nous
a semblé judicieux d'étudier ces capteurs, omniprésents sur les voitures autonomes de demain. Les capteurs
ultrasons permettent de détecter la présence d'obstacles très proches. De plus, par rapport à une caméra ou un
lidar, le radar permet de déterminer assez précisément la distance (ou encore dans certains cas la vitesse dudit
obstacle). Il est composé de deux majeures parties : un émetteur qui émet les ondes et un récepteur qui reçoit
les ondes rééchies. Ils sont utilisés dans beaucoup de systèmes tels que les radars automatiques, les détecteurs
de présence mais aussi très récemment dans les voitures autonomes. La principale diérence entre le capteur
ultrason et le radar est le type d'onde émise, en eet le premier envoie des ondes sonores tandis que le second
émet des ondes électromagnétiques.
3.2.2 Fonctionnement
Le principe de fonctionnement des sonars à ultrasons est très simple mais très ecace, en eet un émetteur
va émettre une onde sonore à très haute fréquence, c'est-à-dire supérieur à 20 kHz (En comparaison le domaine
d'audibilité de l'oreille humaine se situe entre 40 Hz et 20 kHz).
Figure 3.5
L'onde sonore émise va alors se propager dans l'air. Lorsqu'elle rencontrera un obstacle (une autre voiture,
un poteau ou encore un trottoir ) celui-ci va la rééchir et elle va alors parcourir le même chemin mais dans le
sens inverse. Elle sera alors captée par un récepteur et l'on pourra calculer la distance séparant notre voiture
de l'obstacle. En eet la vitesse de l'onde émise étant connue ainsi que le temps de parcours il est alors facile
de mesurer l'éloignement entre le capteur et l'obstacle.
La portée d'un tel capteur est cependant assez faible ( de l'ordre de quelques mètres), c'est pourquoi il est
principalement utilisé pour aider le conducteur lors de manoeuvres. Tandis que le radar dont nous décrivons les
spécicités ci-dessous atteint une portée de plusieurs centaines de mètres.
Figure 3.6
STPI/P6/2018 - 2019
14
Le radar peut lui aussi avoir pour objectif de déterminer la distance des objets entourant la voiture mais il
a d'autres fonctionnalités comme déterminer des vitesses de manière précise ou encore l'angle des obstacles. Il
utilise des ondes radios (9 kHz et 300 GHz) et le principe de l'eet Doppler an de réaliser ses mesures. L'eet
Doppler se base sur la mesure du décalage fréquentiel entre l'onde émise et son homologue réceptionnée après
avoir été rééchie par un objet quelconque.
Le radar se distingue du Lidar grâce à un domaine d'action plus large, en eet celui-ci utilise le principe
optique de la réexion an de pouvoir visualiser des objets se trouvant derrière des obstacles. Cela lui permet
de rester able même lorsque les conditions météorologiques se dégradent, par exemple lors de grêle, de neige
ou de brouillard.
Un autre avantage de cette technologie est qu'elle est plus légère sur le plan informatique qu'une caméra
et utilise beaucoup moins de données qu'un Lidar. En eet, les deux autres capteurs lment l'environnement
qui les entoure alors que le radar obtient uniquement des données plus abstraites. Le traitement des données
est donc plus facile permettant d'avoir un temps de réaction plus faible comparé aux autres capteurs. L'image
ci-dessous permet de comprendre que la précision des radars est plus faible que celle du Lidar mais l'image
obtenue est moins coûteuse en énergie de traitement.
Figure 3.7
La réexion possible des ondes radios est un net avantage pour la Radar, en eet cela permet au véhicule
de détecter des obstacles avec lesquels il n'a pas de ligne de vue. C'est-à-dire que le véhicule peut anticiper la
présence d'un obstacle avant même que l'homme présent au volant ne puisse voir cet objet.
Figure 3.8
STPI/P6/2018 - 2019
15
3.3 La caméra
3.3.1 Dénition
Comme enoncé auparavant la Tesla S est équipé de 21 capteurs dont 8 caméras. La caméra apparait alors
comme un élément central dans le fonctionnement des voitures autonomes. De plus une caméra ore des per-
formances bien supérieures à nos yeux naturels :
Contrairement aux yeux, la caméra permet d'observer le champ de vision dans sa globalité de manière
précise.
Deux caméras fournissent une vision 3D stéréoscopique qui permet de pouvoir apprécier les distances et
les profondeurs.
Ce système est dit " passif ", donc pas de problèmes de coexistence avec les transmissions des autres
véhicules
Avec le temps ses performances ne sont pas altérées contrairement aux yeux.
STPI/P6/2018 - 2019
16
La caméra trinoculaire utilise une combinaison de diérentes distances de visibilité et des angles de champs
de plusieurs caméras pour fournir davantage d'informations nécessaires à la conduite autonome. Néanmoins,
plus il y a de données, plus le fusionnement du signal devient dicile.
Ainsi, la diculté réside dans la précision et la stabilité de la détection de la cible, quelque soit la caméra
utilisée.
La caméra possède ainsi comme fonction fondamentale la détection de la ligne de voie et la détection de
véhicules. La première permet au véhicule de rester dans sa ligne tandis que la seconde permet au véhicule de
freiner lorsqu'il se rapproche d'une autre voiture.
Dans la perception de l'environnement sans conducteur, le travail eectué par la caméra comprend :
- la détection de ligne de voie ;
- la détection des obstacles, ce qui revient à identier et classer les obstacles ;
- l'identication des panneaux de signalisation, tels que l'identication des feux de circulation et des cartes
de limitation de vitesse.
La détection de la ligne de voie est divisée en trois étapes :
La première étape consiste à prétraiter l'image obtenue, après avoir obtenu l'image d'origine, et à la trans-
former en une image de niveaux de gris, puis l'améliorer ;
La deuxième étape concerne l'extraction des caractéristiques. L'image est d'abord binarisée (la valeur de
gris du pixel de l'image est dénie sur 0 ou 255, c'est-à-dire que toute l'image est rendue en noir et blanc), puis
on eectue l'extraction de bord.
La troisième étape est l'ajustement en ligne droite. La diculté de la détection des lignes de voie réside dans
le fait qu'il est dicile pour la caméra d'identier et d'extraire certaines lignes recouvertes par la boue ou dans
des environnements sombres, de pluie ou de neige.
Figure 3.9
La photo ci-dessus est une expérience qui montre le traitement de l'image : après l'acquisition de l'image
originale, l'objet a été identié par un cadre d'apprentissage en profondeur.
Figure 3.10 La gure ci-dessus illustre le processus d'identication des panneaux de signalisation.
STPI/P6/2018 - 2019
17
Les images vidéos fournissent de nombreuses informations qui seront utilisées par le conducteur et le véhicule
autonome.
Nous distinguons deux types de caméras : les caméras 2D et 3D (ces dernières étant déjà installées sur les
voitures haut de gamme).
Pour obtenir un achage 3D, il est nécessaire d'avoir 4 à 6 caméras pour combiner les signaux d'entrées.
De plus, une attention particulière doit être portée au processus de "couture d'image" pour éviter la perte
d'informations.
Que ce soit les caméras 2D ou 3D, toutes deux ont besoin d'un capteur pourvu d'une plage dynamique élevée
ce qui implique au moins 130 dB.
Cette plage dynamique correspond au rapport relatif entre les parties les plus claires et les plus sombres de
l'image de sortie d'un lecteur de disque dur multimédia.
La qualité de cette plage permet le fait que, même si le soleil brille directement sur l'objectif, le capteur sera
capable d'obtenir des informations.
Le meilleur capteur d'image sur le marché possède aujourd'hui une plage dynamique de 145 dB.
Une autre caractéristique essentielle à la qualité de l'image est l'intensité lumineuse.
À l'heure actuelle, le meilleur rapport entre l'image et le bruit du capteur (rapport du signal de bruit émis
par le signal de sortie) sur le marché peut atteindre 1 à 1 mlx (milli lux), et le nombre de trames d'achage
par seconde atteint 30 trames.
Sur les véhicules autonomes, les systèmes de caméra de vision arrière et à 360 degrés utilisent une architecture
centralisée. Ceci signie qu'un module de contrôle traite uniformément les données brutes des 4 à 6 caméras.
Cependant, pour accéder à un tel niveau de qualité, nous déplorons une perte de temps considérable. De
plus, les méthodes de compression de données nécessitent également beaucoup d'espace de stockage.
La gure au dessous montre l'évolution future d'un système de caméra embarqué, de l'analogique au numé-
rique.
Figure 3.11 La gure montre l'évolution future d'un système de caméra embarqué, de l'analogique au numé-
rique.
STPI/P6/2018 - 2019
18
Chapitre 4
Limite
Caméra :
Les caméras sont aectées par l'intensité de la lumière. En eet le fonctionnement des caméras est facilement
aecté par la lumière externe, telles que les fortes pluies, les nuits sombres et les conditions de luminosité
brillante, et il est impossible de déterminer avec précision les obstacles. Les images suivantes illustrent ces
phénomènes.
De plus, la vision de caméra peut être obstruée par des obstacles (par exemple : les véhicules, des panneaux
indicateurs ou les arbres). Aussi, elle est incapable de prévoir le danger potentiel. Par exemple, dans la situation
illustrée par l'image ci-dessous, un piéton est soudainement sorti de la région aveugle de la caméra et celle-ci
n'a pas pu le prévoir.
Figure 4.2
STPI/P6/2018 - 2019
19
RADAR :
L'un des avantages du système radar est son fonctionnement stable dans toutes les conditions météorologiques
telles que le brouillard, la pluie, la neige et la poussière. Cependant, comparé au capteur lidar, sa précision
angulaire est légèrement inférieure et le véhicule cible est perdu dans la courbe. Si plusieurs objets de la sonde
sont proches les uns des autres, il peut être dicile de l'identier. Par exemple, le radar peut traiter deux petites
voitures à proximité comme une grosse voiture, envoyant un mauvais signal de proximité. Cependant, comparé
au lidar, le radar peut déterminer précisément la vitesse de déplacement relative et la vitesse des objets en
mouvement en utilisant l'eet Doppler.
LIDAR :
Tout d'abord, le lidar n'est pas un capteur fonctionnant dans toutes les situations, il est sensible aux condi-
tions météorologiques, à l'environnement (réexion spéculaire ou angle de faisceau de rayonnement limité) et
à l'environnement extérieur. Deuxièmement, le radar laser actuel est coûteux en terme de coût de traitement
des données obtenues. En outre, la distance de perception du radar laser est limitée. Le nuage des points va
devenir très clair à environ 60m. La vitesse d'acquisition du Lidar est lente et la fréquence de rafraîchissement
n'est pas susamment élevée par rapport à l'environnement du véhicule à grande vitesse. Ils ne permettent pas
de distinguer les objets en temps réel (comme la reconnaissance de voiture ou vélo au loin). Enn, les lidars ne
peuvent pas percevoir les informations de couleur dans des tâches telles que la reconnaissance des panneaux de
circulation.
STPI/P6/2018 - 2019
20
La voiture autonome, véritable avancée technique et technologique, va être au centre des discussions et re-
cherches dans les années futures. En eet, même si les progrès faits sont considérables, il reste toutefois des failles
à rectier. Comme nous avons pu le voir lors de notre étude sur les systèmes de perception, tous possèdent un
rôle important mais pour les optimiser, il faut les combiner. Cette combinaison nécessite de nombreuses analyses
pour trouver la meilleure solution. Nous pouvons évoquer le groupe Tesla qui a choisi de faire abstraction des
lidars. Est-ce un choix judicieux ? Sont-ils réellement nécessaires ? Toutes ces questions restent à être approfon-
dies. Toutefois, un fait est certain, un jour nous pourrons nous passer de conducteur !
Alexia : Les voitures autonomes sont au sujet au coeur de l'actualité. Il est fascinant de penser qu'un jour,
nous serons à même de nous passer de conducteur. Il s'agit d'étapes vers l'intelligence articielle. Le domaine
de la perception m'a permi de mieux comprendre le fonctionnement de ces voitures et également, du mécanisme
des systèmes en général. Nous avons pris le parti de nous répartir les tâches par systèmes de perception, ce qui
nous a permis de mieux approfondir nos recherches. Une mise en commun ensuite, nous as appris à synthétiser
et à expliquer correctement des termes parfois très technique.
Julien : Les quelques doutes que j'avais au sujet des véhicules autonomes furent balayés grâce à la compré-
hension du fonctionnement des diérents systèmes de perceptions équipés sur les véhicules. La sécurité et le
confort que j'ai ressenti dans les véhicules de l'Autonomous Lab me permettent de dire que l'on a jamais été
aussi près de voir sur toutes les routes des voitures sans conducteur.
Aurélia : Les recherches avancées que ce projet nous a poussés à faire m'ont permis une meilleure compré-
hension de la voiture autonome et plus particulièrement des systèmes de perception. De plus, travailler en
groupe nous a appris à transmettre nos nouvelles connaissances les uns aux autres de manière claire et compré-
hensible.
Thileepan : Ce projet m'a permis d'être mieux renseigné sur la voiture autonome. En eet, habitant près
de Technopole, le passage des voitures d'Autonomous Lab m'intriguait énormément. De plus, malgré la crainte
de certains, je suis plutôt fasciné par l'ampleur que prend, de nos jours, la recherche dans le domaine de l'in-
telligence articielle. Je pense que ce progrès scientique sera une aide considérable pour l'Homme. De plus,
ce projet m'a permis de me rendre compte de ce que sera le travail de groupe dans le métier d'ingénieur. En
eet, contrairement à la majorité des projets de groupe, au début de ce projet, nous ne nous connaissions pas
forcément entre nous. Mais malgré tout, nous avons su bien nous entendre et bien répartir le travail pour être
le plus ecace possible.
Huaijin :Je connaissais peu de chose sur le véhicule autonome, mais après cette étude , je sens que je m'y
connais beaucoup mieux. Je ne peux pas réprimer mon excitation intérieure quand je pense pouvoir être dans
un véhicule sans conducteur dans l'avenir.
Tonglin : Les voitures autonomes peuvent aider les gens à éviter les accidents de la route ou à conduire de
nuit pour se rendre à destination plus rapidement. Je m'y connais mieux grâce à ce projet et j'espère pouvoir
un jour m'asseoir dans une telle voiture.
STPI/P6/2018 - 2019
21
Bibliographie
[1] La voiture autonome : comment les voitures autonomes peuvent assurer notre sécurité ? https://
voitureautonomefr.wordpress.com/le-fonctionnement/.
[2] Le futur de la conduite. https://www.tesla.com/fr_FR/autopilot.
http://lidar.abct.lmd.polytechnique.
[15] Pierre H. Flamant (sous forme de cours). Fondamentaux lidar.
fr/uploads/documents/cours_lidar/Flamant_Fond1.pdf.
[16] Elisa Wilde. Capteurs radar et ultrasons. https://www.apgsensors.com/about-us/blog/
radar-and-ultrasonic-sensors.
[17] Richard Wilson. Ces : Des voitures autonomes et des capteurs pour les sécuri-
ser. https://www.electronicsweekly.com/market-sectors/automotive-electronics/
ces-autonomous-cars-sensors-make-safe-2017-01/.
STPI/P6/2018 - 2019