Rapport P6 2022 01
Rapport P6 2022 01
Rapport P6 2022 01
STPI/P6/2022 - 001
Objectifs du projet :
— Cerner le processus d’acquisition / interprétation d’informations
1. Comprendre l’utilité des capteurs et leur fonctionnement
2. Comprendre le traitement de l’information
— Saisir la différence entre les deux types de perception
1. Mono-Vision
2. stéréo-vision
Notations et Acronymes 3
Introduction 4
Organisation du travail 6
1 Contexte historique 7
1.1 La révolution voiture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 De la voiture avec chauffeur à la voiture sans chauffeur . . . . . . . . . . . . . . . . . . 7
1.3 Quels sont les différents niveaux d’autonomie ? . . . . . . . . . . . . . . . . . . . . . . 8
Conclusion et perspectives 19
4.4 Perspectives et avenir des véhicules autonomes et connectées . . . . . . . . . . . . . . . 19
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
STPI/P6/2022 - 01
3
Notations et Acronymes
STPI/P6/2022 - 01
4
Introduction
Depuis la seconde moitié du XXe siècle, le développement urbain se fait de plus en plus important.
Aujourd’hui, la voiture individuelle est le moyen de transport le plus utilisé dans la majorité des pays
européens. Les distances parcourues par les populations, ainsi que des vitesses maximales atteintes, ne
font que croître ; ceci s’explique par une population mobile qui accorde de plus en plus de temps aux
déplacements. Selon certains experts, le nombre d’automobiles dans le monde pourrait doubler dans
les 20 prochaines années, compte tenu de la demande croissante dans les pays émergents.
Les autorités gouvernementales ont mis en place des politiques de déplacement urbain pour équi-
librer l’utilisation des différents moyens de transport. Malgré tout, le trafic routier reste congestionné
notamment en centre ville. En résulte certains problèmes :
— Des problèmes sociétaux : la dégradation des conditions de circulation, le trafic saturé aux heures
de pointes, la demande croissante des places de parking, l’engorgement des centres villes ;
— Des problèmes environnementaux : Les performances énergétiques de l’automobile sont liées au
type de conduite associé, mais la congestion du réseau routier ne permet pas le maintien d’une
allure régulière ;
— Des problèmes sécuritaires et sociétaires : Le temps de réponse du conducteur et ses réactions
inadéquates voir accidentogènes dans 30% des situations font de l’automobile le mode de trans-
port le moins sûr actuellement.
Malgré certaines solutions aux problèmes sécuritaires telles que les caméras de recul, la vision nocturne,
l’AFU ou le système start and stop, la voiture individuelle reste au cœur de certaines problématiques de
plus en plus conséquentes. Dans certaines villes de France, les élus veulent bannir à terme les voitures
des rues, comme à Paris ; et d’ici 2040, les voitures fonctionnant à l’énergie fossile ne seront plus vendues
en France.
Il est quelque peu utopique de penser que la population pourrait se défaire des voitures et les
remplacer totalement par un autre type de transport. Longtemps considérée comme symbole de liberté
citadine, la voiture personnelle offre un confort de vie dont peu de personnes pourraient se passer. De
plus, dans les zones rurales, la voiture personnelle ne connaît pas vraiment d’alternatives comme des
réseaux de transports en commun très développés que nous pouvons retrouver en zone urbaine.
Ces différents problèmes nous guident vers une solution : le véhicule autonome.
Le véhicule autonome permettra une décongestion du trafic, une augmentation de la vitesse moyenne
des automobilistes, ainsi que la suppression des conduites à risque. De plus, cela permettra l’accès à la
voiture à un public plus large (invalides, personnes sans permis, etc). Bien sûr, l’impact positif de la
voiture autonome et intelligente sera d’autant plus fort qu’il y en aura en circulation.
Pour ce faire, le véhicule autonome devra percevoir l’environnement pour traiter l’information et
prendre des décisions. La perception de l’environnement est le processus de recueil et de traitement de
l’information sensorielle permettant de définir le milieu occupé. Il est composé de capteurs actifs ( à la
fois émetteurs et récepteurs comme les radars, les lasers. . .) et passifs (uniquement récepteurs comme
les caméras).
Dans le cadre de notre projet, nous allons nous intéresser au potentiel des caméras, notamment des
caméras stéréoscopiques. La stéréo-vision, c’est l’association de 2 images en une seule, tout en ajoutant
de la profondeur. Cette technologie va nous permettra de détecter des obstacles sur la route, mais aussi
de pouvoir discerner les différentes indications de circulation.
Dans un premier temps, nous allons nous intéresser au contexte historique. Ensuite, nous nous
STPI/P6/2022 - 01
5
pencherons sur l’étude des différents capteurs utilisés par une voiture autonome, puis sur le traitement
de l’information (en somme, l’intelligence artificielle). Enfin, nous traiterons des avantages et désavan-
tages de la stéréo-vision, avant de finir en concluant sur une piste de réflexion et un projet prometteur
actuel.
STPI/P6/2022 - 01
6
Organisation du travail
Pour réaliser ce travail, nous avons réparti les différentes parties du rapport entre nous, tout en
mettant en commun nos recherches pour avoir une meilleure cohérence de rédaction. Julie s’est occupée
de la partie introductive qui présente les enjeux, attentes, et besoin du véhicule autonome et de la
perception de son environnement, tandis que Paul s’est intéressé à tout le contexte historique. Arthur a
travaillé sur les différents vecteurs de l’information de l’environnement présent sur le véhicule autonome
(Caméras, LiDAR, capteurs ultrasons...). Chen s’est penché sur la partie du traitement de l’information
et l’intelligence artificielle, et Tamara sur les avantages et désavantages de l’utilisation de la stéréo-
vision. Paul-Adrien a travaillé sur la conclusion, qui termine notre projet mais qui ouvre la réflexion
sur les projets scientifiques futurs.
STPI/P6/2022 - 01
7
Chapitre 1
Contexte historique
STPI/P6/2022 - 01
8
STPI/P6/2022 - 01
9
Chapitre 2
2.1 Introduction
Lorsque l’on évoque la conduite autonome, la perception de l’environnement par le véhicule avec
précision est un facteur essentiel. Il est important que la voiture collecte une quantité d’information
importante sur l’environnement tel que la position d’obstacles statiques ou en mouvement et leur
trajectoire. C’est grâce à la redondance des informations que l’on peut modéliser avec précision l’envi-
ronnement. De ce fait, une voiture autonome doit être équipée de nombreux capteurs.
Les deux catégories de capteurs présentent des inconvénients et des avantages. Les capteurs actifs
peuvent être utilisés dans des situations dans lesquelles les capteurs passifs sont inopérants. En effet,
STPI/P6/2022 - 01
10
l’environnement doit être irradié par une source d’énergie pour qu’un capteur passif photographique
fonctionne. Ce dernier ne peut donc pas fonctionner la nuit par exemple, là où un capteur actif comme le
LiDAR irradie lui-même la scène et reste efficace indépendamment de la lumière du jour. Cependant les
capteurs passifs sont en général moins coûteux et présentent un autre intérêt ; la discrétion. Un capteur
actif émet une source d’énergie qui peut être perçue par d’autres appareils. Les capteurs passifs quant
à eux, n’émettent rien, et ne laissent donc aucune empreinte dans l’environnement[5, 6, 9, 19].
C’est là que les autres capteurs entrent en jeu. Les LiDARs quant à eux, utilisent des faisceaux laser
et donc de la lumière pour obtenir des résultats précis. En multipliant leur nombre sur le véhicule et en
les disposant correctement, il est possible d’obtenir une cartographie 3D sur 360° de l’environnement.
Cependant, ce dernier reste très coûteux. De plus, le LiDAR présente des lacunes par temps de pluie,
de brouillard ou de neige.
Le radar complète les défauts du LiDAR puisqu’il est efficace sous toutes les conditions météo-
rologiques. Cependant il reste beaucoup moins précis et il peut être mis en défaut par des échos et
des interférences. Pour des distances de plus de 30 mètres, la détection des obstacles repose donc
principalement sur les LiDAR et les radars.
D’autres capteurs, bien que très démocratisés et déjà installés sur tous les véhicules ou presque,
reste indispensable à la conduite autonome. On retrouve les odomètres qui compte le nombre de de
STPI/P6/2022 - 01
11
rotation d’une roue et qui mesure ainsi la vitesse et la distance parcourue par le véhicule avec précision.
Une centrale à inertie composée de gyromètres est aussi utilisée pour mesurer les mouvements tels que
la direction et la vitesse du véhicule.
On voit ici que tous ces capteurs sont complémentaires. Certains capteurs ont des lacunes dans
certains scénarios dans lesquels d’autres capteurs sont performants. De plus, la redondance de l’in-
formation est un aspect essentiel à la conduite autonome car cela permet de vérifier la véracité des
informations. Si les sorties de deux capteurs se contredisent, il est important d’en avoir un troisième
pour trancher et prendre une décision. Ces systèmes étant encore en développement, il est impossible
qu’un capteur ait un taux d’erreur nul. Cependant, une erreur de fonctionnement peut être fatale et
coûter la vie à de nombreuses personnes lorsque l’on évoque la conduite autonome. Avoir des informa-
tions certaines et donc un enjeu crucial[7, 10, 17, 22].
STPI/P6/2022 - 01
12
Chapitre 3
3.1 Définition
Les algorithmes traditionnels de détection sont divisés en trois parties, contenant l’extraction des
caractéristiques de la cible, la reconnaissance de la cible et la localisation de la cible, où l’algorithme
typique impliqué est l’algorithme DPM.Contrairement aux méthodes traditionnelles de traitement
d’images, la principale différence dans l’utilisation des méthodes d’apprentissage profond pour le trai-
tement d’images est que les cartes de caractéristiques ne sont plus extraites manuellement, mais à l’aide
d’un ordinateur, de sorte que les caractéristiques extraites sont très riches et complètes[2].
STPI/P6/2022 - 01
13
Les algorithmes permettent de donner un sens aux données issues de capteurs en fournissant une
représentation détaillée de l’environnement autour de la voiture.
À partir des images des caméras, ils sont chargés de détecter tous les obstacles et de les classer par
catégories (piétons, vélos, motos, bus, camions. . .) ; d’identifier les panneaux de signalisation et de lire
leur contenu ; de savoir quand un feu passe au vert ou au rouge ; de faire la distinction entre la route
et le bas-côté ; de repérer les différentes configurations de la route (intersections, ronds-points. . .) ou
encore les différents types de marquages au sol. Idem pour les données des radars et des LiDARs, elles
aussi interprétées par du machine Learning.
Cette connaissance de l’environnement vient ensuite alimenter d’autres algorithmes déterministes
cette fois, basés sur des règles. Sachant où se trouvent les obstacles et leur type, et prédisant leur
position future, ces algorithmes de planification décident de la manœuvre la plus sûre à exécuter, et
cela dans le respect du Code de la route.
3.4 End2End
Nvidia a formé un réseau de neurones convolutifs (CNN) pour mettre en correspondance les pixels
bruts d’une seule caméra frontale directement avec les commandes de direction.Les données d’entraîne-
ment sont constituées d’images et de commandes de direction recueillies lors de scénarios de conduite
exécutés dans différentes conditions d’éclairage et météorologiques et sur différents types de routes.
Cette approche présente toutefois deux écueils : (1) si l’approche de bout en bout pose un problème,
il est difficile de corriger le modèle car il n’y a aucun moyen de savoir ce qui n’a pas fonctionné. Pour
la commande de direction, il y a de nombreux facteurs à prendre en compte, et certains petits change-
ments dans la scène peuvent déclencher une commande de direction différente (par exemple, une pierre
supplémentaire sur la route)[16].
STPI/P6/2022 - 01
14
STPI/P6/2022 - 01
15
Chapitre 4
Le fonctionnement de la mono-vision est d’extraire les lignes et colonnes de l’image pour détecter
les contours des éléments de l’image. De plus, elle permet de déterminer le mouvement d’un objet à
partir de ses contours et d’une information sur la vitesse et sur le temps.
La mono-vision a donc pour principe de tirer un maximum d’informations sur la succession de deux
images, alors que la stéréo-vision comme nous allons le voir, repose plus sur la superposition de deux
images prises simultanément.
Algorithme utilisé avec la mono-vision :
1. L’algorithme détecte d’abord l’ombre du véhicule situé devant la caméra (en analysant les
nuances de gris de l’image) et toutes les bordures horizontales.
2. Ensuite, l’algorithme détecte la plaque d’immatriculation de la voiture grâce aux dimensions et
au couleurs de plaques d’immatriculations standardisées.
3. Enfin, l’algorithme évalue la distance entre les deux véhicules, et la nécessité ou non de freiner.
La mono-vision a l’avantage d’un temps de réalisation d’images plus court que celui de la stéréo-vision.
Cependant il ne fournit pas d’informations sur la profondeur du sujet observé donc il est difficile de
déterminer précisément la distance du véhicule[15].
4.1.2 Stéréo-vision
Méthode de perception où la caméra change de position entre les différentes prises de vue. L’analyse
du mouvement nécessite alors d’utiliser plusieurs caméras et de prendre des photos simultanément. Elle
STPI/P6/2022 - 01
16
La plus grande différence se trouve alors dans le traitement de la profondeur dans les images :
Relief par mono-vision : La mono-vision permet de prendre des photos successives d’un objet en
mouvement depuis le même point de vue ; ainsi cela ne donne que peu d’informations sur la profondeur
de l’objet perçu.
STPI/P6/2022 - 01
17
Relief par stéréo-vision : La stéréo-vision permet de prendre des photos avec différentes caméras
(depuis différents points de vues) Grâce à cette vision, on peut alors déduire la profondeur des obstacles.
Mono-vision Stéréo-vision
Nombre de caméras 1 2
Frame rate 30 − 60 images/sec 30 images/sec
Image processing requirement Moyenne Haute
Fiabilité de détection
des obstacles et prise de Moyenne Haute
décision de freinage d’urgence
[4,
Détection d’objets Détection d’objets
Fiable pour : (lignes, piétons, feux tricolores) (lignes, piétons, feux tricolores)
+ Calcul de distance voiture-objet
Coût du système ×1 ×1, 5
Complexité de l’algorithme Haute Moyenne
Précision + ++
Temps de réaction Court + Long
3]
STPI/P6/2022 - 01
18
Les systèmes de détection visuelle existants pour la détection de véhicule utilisent à la fois le mono
et stéréo-vision, mais en considérant la compétence de mesure de distance inter véhiculaire, la stéréo-
vision est souvent la seule pouvant fournir une information précise sur la profondeur du champ observé.
Le seul inconvénient de la stéréo-vision est qu’elle nécessite une correspondance entre images, ce qui
constitue une tâche complexe qui demande beaucoup de temps de réalisation. En effet, la construction
des cartes 3D est un processus coûteux en temps de calcul. Celui-ci est plus ou moins long suivant le
choix de plusieurs paramètres à savoir : le nombre de caméras du système de stéréo-vision, le type de
caméra utilisée (matricielle ou linéaire), la modélisation géométrique du capteur de stéréo-vision, du
type de carte 3D construite (éparse ou dense) et enfin des techniques utilisées pour résoudre le problème
de la mise en correspondance des images stéréoscopiques. En général, les systèmes de stéréo-vision sont
composés de deux caméras. Cependant ils peuvent être dotés de plus de deux caméras. Le nombre de
données à traiter augmente proportionnellement au nombre de caméras.
STPI/P6/2022 - 01
19
Conclusion et perspectives
Il est évident que cette technologie est encore très récente, quelques dizaines d’années seulement.
Par conséquent, une partie non négligeable de la population reçoit cette innovation avec beaucoup de
scepticisme. En effet, par exemple en France, 48% des citoyens pensent que cette technologie ne sera
jamais généralisée à l’ensemble de la population.
Cependant, les projets autour de cette technologie suscitent beaucoup d’engouement et nombreuses
sont les sociétés qui décident de se lancer dans des projets de véhicules autonomes. Le but de cette
partie est de montrer les perspectives d’avenir de cette technologie novatrice qui fait son apparition de
plus en plus dans nos vies.
Pour commencer, nous pouvons citer le projet de taxi autonome mis en place par Elon Musk. Ce
projet a pour but d’instaurer des taxis en capacité de se rendre d’un point A à un point B sans même la
présence d’une personne pour reprendre le contrôle si un problème apparaît. Ce projet a pour ambition
de créer des véhicules avec le plus haut niveau d’autonomie. A ce jour, le projet n’a pas encore vu le
jour mais l’entreprise d’Elon Musk promet un lancement pour l’année 2024[13, 1].
Figure 4.6 – Le tableau de bord d’une Tesla Model 3 sans volant (concept)
Deuxièmement, il est intéressant de parler du projet de Scanner LiDAR Valeo. La nouvelle gé-
nération de ce scanner affiche des performances considérablement augmentées et propose de réelles
perspectives d’avenir pour les véhicules autonomes et connectés. Il reconstitue en trois dimensions, en
temps réel, l’environnement qui entoure le scanner à un rythme de 4,5 millions de points et 25 images
par seconde. Il irait au-delà de tous les scanners existants[8].
STPI/P6/2022 - 01
20
En outre, nous pouvons voir que le scepticisme de la population envers cette nouvelle technologie
n’influence pas le développement de la mono/stéréo-vision. Cette technologie est très prometteuse et
représente un secteur d’activité important dans tous ses nombreux domaines d’application.
4.5 Conclusion
Les véhicules autonomes et connectés ont connu durant ces dernières années d’importantes avancées
dans le domaine de la recherche. Ces véhicules sont très prometteurs pour assurer les mobilités de
demain dans un monde de plus en plus interconnecté et à la pointe de la technologie.
Cependant, il est encore difficile de les intégrer entièrement dans notre société pour des raisons
d’éthique et de mise en place d’un système juridique juste capable de régir les différents accidents.
Comme le disait en effet Elon Musk : « La grande inconnue reste l’approbation des pouvoirs publics ».
Ce projet nous a permis de nous sensibiliser aux enjeux de la recherche de nouveaux capteurs afin
d’assurer un haut niveau de sécurité.
Il est évident que nous n’avons pas pu soulever tous les points de ce thème mais il est clair que
nous avons beaucoup appris grâce à ce projet.
STPI/P6/2022 - 01
21
Bibliographie
[1] Julien CADOT. Elon musk estime que les tesla pourront être
des taxis autonomes fin 2020. https://www.numerama.com/vroom/
617572-elon-musk-estime-que-les-tesla-pourront-etre-des-taxis-autonomes-fin-2020.
html. 4.4
[2] AI Technology camp base. Application de l’apprentissage profond dans le domaine de la per-
ception de la conduite autonome. https://cloud.tencent.com/developer/article/1421395?
from=article.detail.1972772. 3.2
[3] Aish DUBEY. The challenges and opportunities for adas
stereo vision applications, part i. https://www.edn.com/
the-challenges-and-opportunities-for-adas-stereo-vision-applications-part-i/.
4.2
[4] Aish DUBEY. Stereo vision — facing the challenges and seeing the op-
portunities for adas applications. https://www.edge-ai-vision.com/2017/11/
stereo-vision-facing-the-challenges-and-seeing-the-opportunities-for-adas-applications/.
4.2
[5] Yann DUMORTIER. Perception monoculaire de l’environnement pour les systèmes de transport
intelligents. PhD thesis, École Nationale Supérieure des Mines de Paris, 2009. 2.2
[6] C. FAURY. Les capteurs. https://si.blaisepascal.fr/1t-les-capteurs/. 2.2
[7] Farouk GHALLABI. Precise self-localization of autonomous vehicles using lidar sensors and highly
accurate digital maps on highway roads. PhD thesis, Université Paris sciences et lettres, 2020. 2.3
[8] Eric HOUGUET. Le scanner lidar valeo reconstitue tout ce qui se passe au-
tour de la voiture. https://www.latribuneauto.com/reportages/technologie/
12581-le-scanner-lidar-valeo-reconstitue-tout-ce-qui-se-passe-autour-de-la-voiture.
4.4
[9] Actualité Informatique. Définition capteur passif. https://actualiteinformatique.fr/
internet-of-things-iot/definition-capteur-passif. 2.2
[10] TECHNIQUES DE L’INGENIEUR. Les capteurs, technologies clés du véhi-
cule autonome. https://www.techniques-ingenieur.fr/actualite/articles/
les-capteurs-technologies-cles-du-vehicule-autonome-104071/. 2.3
[11] MaxK. Voiture autonome. la conduite sans les mains autori-
sée dès l’été 2022. https://www.largus.fr/actualite-automobile/
voiture-autonome-la-conduite-sans-les-mains-autorisee-des-lete-2022-10851398.
html. 1.3
[12] Nirina. Comprendre les véhicules autonomes à travers leur histoire. https://www.lebigdata.
fr/comprendre-les-vehicules-autonomes-a-travers-leur-histoire. 1.2
[13] Morgane OLES. Elon musk annonce un taxi autonome sans volant ni pédales pour 2024. https:
//trustmyscience.com/elon-musk-annonce-taxi-autonome-2024/. 4.4
[14] Joanna JONGWANE Raoul de CHARETTE. Les algorithmes de vi-
sion pour les véhicules autonomes. https://interstices.info/
les-algorithmes-de-vision-pour-les-vehicules-autonomes/. 4.1.2
STPI/P6/2022 - 01
22
[15] Nadeen SALAMEH. Conception d’un système d’alerte embarqué basé sur les communications
entre véhicules. PhD thesis, INSA Rouen Normandie, 2011. 4.1.1
[16] NVIDIA Team. End to end learning for self-driving cars. https://images.nvidia.com/content/
tegra/automotive/images/2016/solutions/pdf/end-to-end-dl-using-px.pdf. 3.4
[17] Pierre VANDEGINSTE. Sur les voitures autonomes, des capteurs mul-
tiples, divers et complémentaires. https://dataanalyticspost.com/
sur-les-voitures-autonomes-des-capteurs-multiples-divers-et-complementaires/.
2.3
[18] Wikipedia. Apprentissage profond. https://fr.wikipedia.org/wiki/Apprentissage_profond.
3.1
[19] Wikipedia. Capteur. https://fr.wikipedia.org/wiki/Capteur. 2.2
[20] Wikipedia. Navlab. https://fr.wikipedia.org/wiki/Navlab. 1.2
[21] Wikipedia. Véhicule autonome. https://fr.wikipedia.org/wiki/Véhicule_autonome. 1.2
[22] Li YU. Absolute Localization by Mono-camera for a Vehicle in Urban Area using Street View.
PhD thesis, Université Paris sciences et lettres, 2018. 2.3
STPI/P6/2022 - 01