These Synthèse de Terrain À L'échelle Planétaire
These Synthèse de Terrain À L'échelle Planétaire
These Synthèse de Terrain À L'échelle Planétaire
Yann Cortial
M. Loïc B ARTHE, Professeur des Universités, Université Paul Sabatier de Toulouse, Rapporteur
M. Marc D ANIEL, Professeur des Universités, Polytech Marseille, Rapporteur
Mme. Céline R OUDET, Maître de Conférences, Université de Bourgogne, Examinatrice
M. Éric G ALIN, Professeur des Universités, Université Claude Bernard Lyon 1, Examinateur
M. Éric G UÉRIN, Maître de Conférences, INSA Lyon, Directeur de thèse
M. Adrien P EYTAVIE, Maître de Conférences, Université Claude Bernard Lyon 1, Co-Directeur de thèse
v
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
A BSTRACT
vii
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
TABLE DES MATIÈRES
1 I NTRODUCTION 1
2 É TAT DE L ’ ART 7
2.1 Synthèse de terrain classique . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.1 Aperçu du domaine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1.1 Familles d’approches . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1.2 Modes de synthèse . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1.3 La question du réalisme . . . . . . . . . . . . . . . . . . . . . 11
2.1.1.4 Représentation des terrains . . . . . . . . . . . . . . . . . . . 12
2.1.1.5 Contrôle utilisateur, contraintes sur les modèles . . . . . . . . 13
2.1.2 Méthodes physiques mono-échelles . . . . . . . . . . . . . . . . . . . . 14
2.1.2.1 Érosion thermique . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.2.2 Érosion hydraulique . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.2.3 Reliefs éoliens . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.2.4 Autres simulations . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.3 Méthodes multi-échelles . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.3.1 Modélisation fractale . . . . . . . . . . . . . . . . . . . . . . 21
2.1.3.2 Méthodes procédurales avec pré-structuration . . . . . . . . . 23
2.1.3.3 Méthodes procédurales volumiques . . . . . . . . . . . . . . . 25
2.1.3.4 Synthèse à partir d’exemples . . . . . . . . . . . . . . . . . . 26
2.1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2 Passage à l’échelle planétaire . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.1 Applications émergentes . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.2 Recherche académique . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.2.1 Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.2.2 Stratégies de rendu . . . . . . . . . . . . . . . . . . . . . . . 36
2.2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
ix
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
3.2.2 Modèle de plaque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2.3 Aspect numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2.4 État initial de la simulation . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3 Modèle tectonique dynamique . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.1 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.1.1 Subduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.1.2 Collisions continentales . . . . . . . . . . . . . . . . . . . . . 59
3.3.1.3 Implémentation . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.3.2 Divergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3.2.1 Génération du plancher océanique . . . . . . . . . . . . . . . 65
3.3.2.2 Fragmentation de plaque . . . . . . . . . . . . . . . . . . . . 66
3.3.2.3 Implémentation . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.3.3 Érosion continentale et affaissement océanique . . . . . . . . . . . . . 69
3.4 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.4.1 Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.4.2 Performance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.4.3 Contrôle utilisateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.4.4 Limitations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5 C ONCLUSION 107
B IBLIOGRAPHIE 115
Figure 1 : Vue de la botte italienne depuis la Station Spatiale Internationale (ISS), orbitant à 400 km
d’altitude. En insert, photographie de la Terre réalisée durant la mission Apollo-8, prise en
1968 par l’astronaute William Anders. (Source : NASA)
Les grecs anciens, dont Aristote, aimaient contempler la nature, autrement dit la physis, pour
en déduire les lois de leur philosophie naturelle. On peut supposer que certains parmi eux
avaient déjà sans doute formulé une sorte de rêve incongru, une chimère à jamais inaccessible,
inatteignable du fait de la limitation de la condition humaine, au regard des étendues du
cosmos qu’ils pouvaient déjà estimer par le calcul : voir la Terre, contempler le monde depuis
la voûte céleste, dans sa globalité – une vision sans doute réservée aux dieux. Mais voilà,
à peine quelques millénaires plus tard, ce rêve parmi les plus vieux rêves de l’humanité a
fini pourtant par se réaliser. Grâce aux pionniers de l’astronautique, il est désormais possible
de contempler la Terre dans son entièreté (figure 1), et il ne reste guère de surface de ce
monde qui n’ait été explorée. Mais rares sont les hommes et femmes autorisés à assister à
ce spectacle cosmique, les astronautes ne sont pas légions ; cependant, il reste le pouvoir
de l’image, pour que les autres, nous tous, puissions nous émerveiller à notre tour. C’est là
que l’informatique graphique peut jouer un rôle d’importance. Car, à défaut de contempler
nous-même ces spectacles naturels, nous pouvons transmettre des images, les animer, les
1
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
explorer virtuellement et pourquoi pas même les synthétiser, afin de montrer ce qui demeure
encore inaccessible à l’homme, d’autres planètes.
Mais, une planète du point de vue numérique, virtuel, est un objet complexe à traiter. La
Terre est recouverte, sur un demi-milliard de kilomètres carrés, de reliefs (lithosphère), d’eau
(hydrosphère) et de nuages animés caractéristiques (atmosphère). Modéliser et rendre des
paysages planétaires, à toutes échelles, est un défi numérique majeur. Il rejoint les verrous de
l’étendue et de la précision des modèles de terrains (ou de nuages) lorsque ceux ci s’attachent
à dépasser les étendues conventionnelles. Le premier problème est donc celui de la taille du
domaine : l’échelle. Le second, lié au premier, est celui de la variété ou multi-modalité : en
effet, plus on s’attaque à de grandes étendues plus il faut prendre en compte une variété
élevée de paysages ; à l’instar de notre planète qui figure aussi bien des plaines, des vieux
massifs, des ergs sableux ou des regs en zone aride, que des vallées alpines ou des formations
karstiques ravinées toutes deux travaillées par de fortes hydrographies.
Face à ces défis la recherche académique n’a proposé curieusement que peu de choses. On
compte seulement deux méthodes de modélisation capables de traiter des planètes entières à
l’échelle 1/1, Musgrave [Ebe+98] et Derzapf et al. [Der+11]. Ce sont deux méthodes fractales
qui, par essence, abordent plutôt bien le problème de l’étendue vaste des planètes, mais par
contre produisent des terrains extrêmement homogènes qui ne répondent pas au second défi,
2 C HAPITRE 1. I NTRODUCTION
Figure 2 : Les terrains à l’échelle maximale, planétaire, du jeu Star Citizen. (source : © CIG)
Dans cette thèse, nous allons nous concentrer sur la modélisation de terrains planétaires
à l’échelle 1/1 et ce de manière à permettre l’exploration continue, temps-réel des modèles.
En premier lieu, nous présentons un État de l’Art (chapitre 2) dans lequel nous précisons
plus avant ce qui a été produit en matière de synthèse de terrains classiques, c’est-à-dire des
terrains à étendue limitée et en topologie planaire. Ceci permettra d’expliciter des notions,
des techniques, des problématiques communes sur lesquelles construire la modélisation de
terrains planétaires : en un mot de passer à l’échelle en fonction de l’existant. Les méthodes
de la littérature sont donc d’abord présentées en regard de l’approche classique, avant de
s’intéresser spécifiquement à ce qui a été fait en matière de terrains planétaires. Les rares mé-
thodes existantes qui traitent l’échelle planétaire sont toutes procédurales, et même fractales :
d’essence phénoménologique, elles ne s’intéressent pas aux causes physiques de la formation
des terrains, et leur nature fractale ne produit pas la variété essentielle au réalisme (comme le
montre la figure 3).
3
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
1
Figure 3 : Méthodes existantes de modélisation de planètes : (gauche) instance générée par combi-
naison de bruits procéduraux, à la façon de [Ebe+98], et rendue par le logiciel Terragen
(Source : nvseal @ deviant-art) ; (droite) exemple de terrain généré à la volée par la
méthode de Derzapf et al. [Der+11] (Source : [Der+11]).
Pour pallier à ces deux défauts tout en prenant en compte le problème particulier de
l’étendue considérable de planètes modélisées à l’échelle 1/1, nous proposons dans un second
temps une approche de synthèse originale, combinant à la fois représentation physique et
techniques procédurales. Les méthodes fractales échouant à produire l’hétérogénéité à grande
échelle des planètes, nous proposons d’abord (chapitre 3) de traiter l’échelle macroscopique
en simulant une physique géologique : à cette échelle il s’agit principalement de phénomènes
tectoniques, qui permettent d’engendrer correctement des formes de continents intéressantes,
des distributions d’arcs d’îles et d’archipels, des chaînes montagneuses plausibles. La méthode
opère sur une représentation triangulée de plaques tectoniques, animées dans une boucle
de simulation selon un pas de temps de plusieurs millions d’années. Lors de la simulation
les modes d’interaction tectoniques sont détectés et reproduits. Ces modes comptent, en
convergence, la subduction de plaques et les collisions continentales, donnant lieu à des
orogénies (formations de montagnes), et en divergence la formation de plancher océanique le
long des dorsales ainsi que le rifting, c’est-à-dire la fragmentation des plaques. La méthode offre
des capacités de contrôle à l’utilisateur, celui-ci peut en temps interactif durant la simulation
réorienter les plaques ou bien les re-paramétrer. Une fois le modèle tectonique produit, la
planète décrite par sa croûte avec une précision de quelques dizaines de kilomètres, est donnée
en entrée d’une seconde méthode d’amplification dont le rôle est de créer les détails du terrain
à la volée, à mesure que la caméra commence son exploration en temps réel. Nous proposons
(chapitre 4) deux méthodes d’amplification : la première par mélange de cartes de hauteurs
réelles, et la seconde, baptisée hyper-amplification, qui opère par subdivision stochastique.
L’hyper-amplification est inspirée du travail de Derzpaf et al. et permet de dépasser les
limitations de notre première méthode, laquelle ne permet pas une bonne précision du terrain
et n’offre aucun élément hydrographique structurant ; a contrario l’hyper-amplification permet
la génération à la volée de terrains variés en sus de réseaux hydrographiques cohérents. Elle
4 C HAPITRE 1. I NTRODUCTION
5
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
2
É TAT DE L’ ART
7
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
Les terrains sont une composante essentielle des paysages, car ce sont des éléments structu-
rant et support de la scène sur lesquels viennent se greffer les autres éléments (végétation,
bâtiments, véhicules, etc.). Ils occupent donc une place particulièrement importante dans
toute application numérique figurant de manière visuelle des scènes extérieurs 3D. Parmi
ces applications on compte celles qui s’appuient fortement sur les terrains de synthèse, et
qui se distinguent des applications de type SIG (GIS, Geographic Information System), plus
orientées vers l’analyse et la visualisation de terrains réels et de données affiliées (comme
par exemple l’occupation des sols). La synthèse de terrain a des applications importantes,
pour les simulateurs d’entraînement, lorsque ceux-ci nécessitent des reliefs spécifiques aux
missions d’entraînement, et surtout dans les industries du jeu vidéo et du cinéma. Dans ces
trois types d’applications, on constate au fil des ans et à mesure que le matériel informatique
gagne en capacités de traitement un accroissement de la taille des terrains ainsi que de leur
réalisme. Par exemple, les simulations de vol ou d’opérations de projection longue portée
2 (civiles ou militaires) peuvent couvrir des étendues de plusieurs milliers de kilomètres. Ou
encore, les jeux vidéo dits « mondes ouverts » peuvent présenter des terrains extrêmement
détaillés tout en étant étendus (par exemple le titre sorti en 2016 Final Fantasy XV offre un
terrain de 42 × 42 km entièrement explorable en continu et au niveau du sol, à comparer avec
The Elder Scrolls IV sorti en 2007, à l’époque révolutionnaire, qui offrait un terrain de taille
6 × 6 km). Enfin, le cinéma, avec la science-fiction devenue genre très populaire, propose
désormais souvent des paysages spectaculaires à l’échelle planétaire.
Tous ces terrains de synthèse sont générés par des méthodes dédiées, automatiques ou
semi-automatiques, qui s’appuient à des degrés divers sur les connaissances que nous avons du
monde géologique réel. En préambule de cet état de l’art il est donc souhaitable de rappeler
quelques éléments essentiels de géomorphologie. Sur Terre, la variété des paysages s’explique
par la rencontre interdépendante de nombreux facteurs qui donnent naissance aux modelés
géomorphologiques qui nous sont familiers comme les massifs montagneux, les systèmes de
collines érodées, les falaises côtières, ou tous les modelés dérivés de l’hydrographie comme
les vallées fluviales, les gorges et les canyons, les étendues de sédiments ou les criques.
Intuitivement nous caractérisons les terrains par leur forme. Mais un terrain n’est pas juste un
modelé statique. La forme s’explique par un historique de processus, lequel peut s’étaler sur
des échelles de temps extrêmement variables, pouvant être comptées en jours (par exemple
pour une dune ou un cratère volcanique), en milliers d’années (le delta d’un fleuve) ou encore
en millions d’années (une montagne). Les géomorphologues pensent ces processus en terme
d’analyse systémique : un terrain est un système ouvert, en équilibre dynamique plus ou
moins stable et figurant des boucles de rétroactions positives ou négatives. Au-delà de leur
complexité intrinsèque, ces terrains-systèmes peuvent être vus en première approximation
comme des antagonismes entre facteurs endogènes, plutôt générateurs (les forces géologiques,
tectoniques ou volcaniques) et facteurs exogènes plutôt destructeurs (les forces climatiques, le
vent, les précipitations, la température et les radiations solaires, induisant notamment l’érosion)
[Hug16]. Globalement, les forces génératrices de la tectonique agissent sur de grandes échelles
spatiales et temporelles pour façonner notamment les chaînes de montagnes, donc des grands
Nous souhaitons dans cette thèse mettre l’accent sur l’échelle des terrains synthétisés. Par le
mot « échelle » et à défaut d’autres termes en français, nous désignons à la fois l’étendue et la
précision du domaine spatial sur lequel s’opère la synthèse – étendue, comme taille absolue du
domaine, et précision, comme niveau de détail. À ces deux aspects pris de manière combinée 2
vient s’adjoindre naturellement la notion de résolution, qui serait, dans le cas discret, le nombre
global d’échantillons représentant le terrain. Toutes les méthodes classiques de génération de
terrains ne se valent pas, et notamment sur cette question de l’échelle. Nous allons organiser la
présentation des méthodes en deux grands groupes : les méthodes mono-échelle, c’est-à-dire
dédiées à représenter des phénomènes à une échelle donnée, ce sont souvent des méthodes
recréant la physique sous-jacente, et les méthodes multi-échelles qui peuvent s’appliquer
à divers objets de modélisation de manière relativement indépendante de l’échelle, et ce
sont comme on le verra souvent des méthodes phénoménologiques recréant l’apparence des
modelés sans prendre en compte véritablement la physique. Nous souhaitons explorer le
potentiel de ces méthodes quant au passage aux grandes échelles et, surtout, au passage à
l’échelle maximale des terrains, à savoir l’échelle planétaire.
L’informatique graphique est née dans les années 50 plus ou moins du versement vers le do-
maine civil, notamment l’industrie aéronautique, automobile, les universités (avec les premiers
travaux sur les interfaces homme-machine), de technologies produites par les militaires au len-
demain de la seconde guerre mondiale et impliquant notamment le radar, le tube cathodique,
les premiers ordinateurs. Cependant, des années 50 au milieu des années 70, et bien que le
domaine se soit fort développé (l’ACM crée SIGGRAPH en 1969) et que des personnalités
telles Sutherland, Evans, Catmull, Clark, Blinn, etc., aient émergé, la modélisation 3D ignora
dans l’ensemble la synthèse de phénomènes naturels. À cela une des raisons concernaient le
bagage mathématique standard : les primitives de modélisation étaient des points, des lignes,
des surfaces lisses, linéaires dans le cas de polygones, au mieux des patches polynomiaux
(Bézier, B-splines, NURBS), le tout étant complètement déterministe. Or, les phénomènes
2 naturels, dans leur forme, sont tout au contraire engendrés par des non-linéarités, ce qui sera
nommé le chaos [TS02] – des phénomènes en apparence aléatoires et figurant un haut niveau
de désordre et d’irrégularité, du fait d’une dynamique extrêmement sensible aux conditions
initiales. En fait, il faudra attendre que les travaux du mathématicien Benoît Mandelbrot, sa
théorie des fractales et ses intuitions concernant la "géométrie de la nature" [MVN68 ; Man75 ;
Man82], versent dans l’informatique graphique, avec les premiers modèles stochastiques de
terrains [FFC82]. Ainsi le véritable essor de la génération de terrains en tant que sous-domaine
de l’informatique graphique date du début des années 80, et la modélisation fractale sera
d’abord à l’honneur, avant que ne soit explorées d’autres pistes, notamment l’introduction
progressive de méthodes reposant sur la physique.
Il existe une problématique importante liée intrinsèquement au domaine, qui est celle de
l’évaluation des terrains générés par les diverses approches de la littérature. Cette évaluation
devrait s’opérer sur les qualités attendues du modèle : cela peut être le réalisme, ou encore
l’attrait visuel. Quelques travaux existent en matière de classification et de perception des
terrains, mais uniquement établis au croisement de la psychologie et de la géomorphologie
[DB06 ; HPT04]. Contrairement à d’autres domaines en informatique graphique (synthèse de
texture, modélisation 3D, qualité vidéo, etc.), où une riche littérature en lien avec la perception
visuelle existe et ayant produit notamment des métriques utiles, rien de tel n’a été proposé
en ce qui concerne les terrains virtuels. Par exemple, aucun ensemble de données comparatif
n’existe à l’heure actuelle permettant de distinguer terrains réels et synthétiques.
On soulignera donc l’unique travail récent de Rajasekaran et al. [Raj+19], où les auteurs
ont introduit une toute première métrique pour quantifier le réalisme perçu d’un terrain. La
méthode s’applique à des terrains planaires représentés par cartes de hauteur et s’appuie sur
le concept de geomorphon [JS13] (Figure 5), des éléments de classification de la courbure
du terrain réalisée sur le voisinage de Moore. Cette approche n’est qu’un premier pas pour
2 évaluer la qualité perceptuelle d’un terrain, car les geomorphons ne caractérisent celui-ci que
localement et ne permettent pas à eux seuls d’évaluer les grandes structures, telles les réseaux
de rivières ou la distribution des vallées en zone montagneuse.
En termes de modèles, il existe des représentations communes des terrains partagées par les
méthodes. Tout d’abord, on peut voir un terrain comme un champ de hauteur (heightfield) sur,
typiquement, une topologie planaire 1 auquel cas la représentation est dite 2.5D. Un champ
de hauteur peut être donné par une fonction évaluable en tout point du domaine, ou par une
carte de hauteur (heightmap) que l’on stocke numériquement sous la forme d’une grille. La
première forme est très compacte, cependant c’est la seconde qui est la plus commune aux
méthodes de l’art, pour des raisons d’efficacité calculatoire, l’accès à une grille se faisant en
temps constant. Mais notons que le coût de stockage est en sa défaveur puisqu’en O(N 2 ),
ce qui est un facteur limitant pour la résolution des terrains. En terme d’expressivité un
champ de hauteur représente bien 95% des modelés géomorphologiques existants en termes
d’occurrences naturelles, mais du fait de sa nature 2.5D n’est pas capable de représenter
certaines formes 3D spécifiques et localisées comme des surplombs sur une falaise, des arches
de roche ou des systèmes de grottes. Notons enfin, qu’un champ de hauteur peut être par
contre augmenté verticalement de couches distinctes, on parle alors de multi-champ de
hauteur, pour modéliser par exemple conjointement l’eau, le sable, la roche friable ou la roche
dure, ce qui s’est montré utile pour certaines méthodes, notamment les simulations inspirées
de la physique. Au-delà des champs de hauteur et des multi-champs de hauteur, il existe aussi
des représentations volumiques, donc complètement 3D, des terrains. Le volume de matière
peut être défini de la même façon par une fonction (par exemple des volumes implicites)
1. Mais pas uniquement, un champ de hauteur peut aussi être défini sur d’autres topologies, comme la topologie
sphérique pour une planète.
Dans la catégorie des méthodes mono-échelle on trouvera naturellement toutes les mé-
thodes dédiées à la production de modelés spécifiques, lesquels de par leur caractéristiques
géomorphologiques n’existent que sur une certaine plage restreinte d’étendues. Également, les
méthodes reposant sur la simulation de processus physiques précis tombent dans cette catégo-
rie. De manière intéressante, ces simulations intègrent généralement la dimension temporelle
dans leur formulation. Il s’agit d’une modélisation dynamique permettant de reproduire le
jeu complexe des facteurs géomorphologiques exogènes et endogènes ; c’est-à-dire, comme
nous le disions en préambule, une modélisation considérant l’historique tout autant que la
forme des terrains. Le réalisme physique impose cependant des limitations, communes à toute
2 méthode travaillant sur des équations aux dérivées partielles par le choix du pas de temps et
de la précision spatiale. Notons qu’en sus de l’échelle fixe, la complexité calculatoire contraint
également, pour des raisons de performance, à opérer sur des terrains de faible étendue ou de
faible précision.
Érosion. La majorité des méthodes physiques se concentrent sur les facteurs géomorpholo-
giques exogènes, c’est-à-dire les diverses formes d’altération destructrice des terrains. Cette
altération peut être de deux ordres : météorisation ou érosion. Dans le domaine de la mo-
délisation de terrains, la seconde catégorie de phénomènes a fait l’objet de beaucoup plus
d’attention, car ayant, de loin, le plus d’impact visuel. La météorisation regroupe tous les
processus physico-chimiques d’altération in situ de la roche, tandis que l’érosion implique
l’action d’un agent tiers (l’eau, le vent, etc.) sur la roche et le transport de matériaux, puis
leur déposition. On se reportera à l’état de l’art suivant [MG08] pour évaluer ce qui a été
fait en informatique graphique pour prendre en compte les effets de la météorisation, qui
opère sur de petites échelles et modélisée classiquement par texturage ou conception de BRDF
particulières pour le rendu. Les deux formes d’érosion qui ont rencontré le plus d’attention
de la part des chercheurs en informatique graphique sont certainement l’érosion thermique
(section 2.1.2.1) et l’érosion hydraulique (section 2.1.2.2). Bien entendu, d’autres phénomènes
géomorphologiques sont d’importance dans le monde réel, mais n’ont pas fait l’objet d’au-
tant d’efforts : c’est le cas de l’érosion/construction éolienne (section 2.1.2.3), de la relation
végétation-relief (section 2.1.2.4) ou encore de la tectonique (section 2.1.2.4). Notons enfin
le grand absent, qui est l’érosion glaciaire, pour des raisons mal expliquées (peut être un
problème de l’ordre de l’échelle du phénomène, justement, temporel et spatial) alors que ces
effets sont assez marqués et caractéristiques, comme les vallées en forme de U, les amas de
sédiments (moraines), la striation et les vallées suspendues.
L’hydrographie détient un caractère déterminant sur les modelés de terrain, l’eau étant
un agent d’érosion puissant, que ce soit par l’action à grande échelle des fleuves ou plus
localement par le ruissellement de surface des eaux de pluie. Naturellement, beaucoup de ces
phénomènes ont fait l’objet d’une attention soutenue de la part des chercheurs en informatique
graphique, et notamment le ruissellement de surface. Ce dernier est même devenu, par abus de
langage, quasiment synonyme d’érosion, dans le domaine de la modélisation de terrain car son
effet visuel est très caractéristique (Figure 6) et que les méthodes ont été bien popularisées.
Figure 6 : Effet marqué typique d’érosion hydraulique par ruissellement, appliquée à un terrain brut.
(Source : [Gal+19]).
première proposition pour modéliser un tel phénomène est apparue dans [MKM89]. Les
auteurs ont proposé une solution simple, un modèle qualifié généralement de ad hoc mais
efficace de dissociation/déposition de matériaux et de mouvement de l’eau par diffusion à
2 partir du gradient d’élévation. Par la suite et pendant environ quinze ans des raffinements
ont été proposés jusqu’à tendre vers des modèles de plus en plus fidèles à la physique et à
la géologie : différents matériaux (plus ou moins résistants) ont été ajoutés [RPP93], Chiba
et al. [CMF98] ont été les premiers à introduire un champ de vitesse de l’eau ainsi qu’un
terme d’énergie de collision, les forces étant dépendantes du gradient d’élévation. Benes et
al. [BF02] ont opté, pour un gain de performance, pour un découplage des étapes d’érosion,
de transport, de déposition et d’évaporation de l’eau, introduite pour la première fois (ce qui
permet de générer des étendues lisses de sédiments) ; le transport demeurant toutefois simple,
s’effectuant par distribution sur le voisinage de Moore de chaque pixel d’élévation. Neidhold et
al. [NWD05] ont affiné le modèle physique de transport en prenant en compte l’accélération
du fluide et proposent un système d’équations différentielles du premier ordre qui se rapproche
des standards en simulation numérique de fluide (computational fluid dynamics) reposant sur
les équations de Navier-Stokes [Bri15]. Ceci permet de dépasser les problèmes inhérents aux
méthodes précédentes, plus éloignées de la physique, nécessitant le règlage fin de paramètres
ad hoc et sujettes à des instabilités. Dans [ASA07] les auteurs conservent globalement ce
même modèle mais le parallélisent sur GPU pour de meilleures performances.
Figure 7 : Érosion hydraulique [MDH07] reproduite par un modèle de shallow water issu de la
dynamique des fluides adjoint d’un modèle simplifié de détachement/déposition de matériau
issu de la géologie. (Source : [MDH07]).
Le terme éolien réfère à l’action du vent sur la roche et/ou les sédiments, par érosion ou
construction. En général en géomorphologie l’action de l’eau domine largement celle du
vent. Toutefois, la Terre est couverte à 25% de zones arides dans lesquelles la pauvreté de
la végétation et l’absence d’eau laissent entièrement la place aux processus éoliens qui dès
lors caractérisent le relief : déflation plus ou moins marquée de la roche selon sa résistance,
formation de dunes par saltation du sable, abrasion de la roche par le sable. Ces reliefs
2 Onoue et al. [ON00] ont modélisé des dunes couvertes d’ondelettes de sable en réutilisant,
dans un modèle procédural, les équations de saltation et de charriage du sable, issues de
la physique. Dans [BR04] la méthode a été étendue pour prendre en compte des obstacles
(végétation, roches) au déplacement du sable. Bien que capables de générer des ondelettes à
la surface du terrain, ainsi qu’une forme particulière de dune assez générique, ces méthodes
échouent à reproduire des formes de dunes importantes car répandues, telles les barkhanes
(dunes en demi-lune) ou les ghourds (dunes en étoile) ; de plus elles ne prennent pas en
compte l’interaction sable/roche (abrasion du relief). Sur ce dernier point il faut aller vers
d’autres travaux pour trouver des propositions spécifiques, ainsi [Bea+07 ; Jon+09 ; TJ10]
où une estimation de la courbure du terrain et de son accessibilité permettent de calculer
une approximation de l’érosion éolienne sur la roche. En général cette approche est limitée
à produire des structures localisées et très particulières, telles les cheminées de fée (anglais
hoodoos ou goblins) de la figure 8.
Figure 9 : Résultats obtenus dans [Par+19b] par une simulation éolienne, démontrant la capacité de
la méthode à générer divers types réalistes de dunes (gauche) par saltation du sable, ainsi
que l’abrasion de la roche (droite). (Source : [Par+19b])
Figure 10 : Terrain étendu généré à partir de soulèvement tectonique combiné à une érosion fluviale.
(Source : [Cor+16])
Tectonique. L’érosion hydrique pour la modélisation de terrain opère généralement sur des
étendues modestes (quelques kilomètres au mieux). Dans [Cor+16] pour la première fois
les auteurs tentent d’aborder des terrains beaucoup plus vastes (de l’ordre de la centaine de
kilomètres). À cette échelle l’érosion hydrique est essentiellement fluviale, et entre en jeu un
autre facteur géomorphologique essentiel et jusqu’ici négligé en informatique graphique : la
tectonique des plaques. Dans ce travail, Cordonnier et al. ont combiné l’influence d’une carte
de soulèvement tectonique local (en anglais uplift) avec une érosion fluviale modélisée par
La méthode a été significativement étendue par les mêmes auteurs dans [Cor+18]. Elle a
été décomposée en deux étapes, une simulation tectonique qui s’exécute en temps interactif et
un post-traitement érosif. L’aspect tectonique est modélisé finement et avec plus de contrôle.
L’utilisateur, par interface tactile, pousse avec les mains les plaques qui se rencontrent, et
l’algorithme évalue le transport et la contrainte exercée sur la croûte, modélisée comme
un fluide visqueux incompressible. La croûte est par ailleurs stratifiée procéduralement en
Figure 11 : Terrain étendu généré à partir de soulèvement tectonique, méthode étendue de [Cor+18].
(Source : [Cor+18])
Cette section est dédiée aux méthodes multi-échelles, que nous pourrions qualifier d’agnos-
tiques vis-à-vis de l’échelle. Cela signifie qu’elles sont indépendantes de la notion d’étendue et
de précision du domaine sur lesquelles elles travaillent. Cela ne signifie aucunement que ces
méthodes seraient affranchies de l’échelle, qu’elles seraient capable d’étendue ou de précision
infinie ; c’est un point important à soulever car on a eu l’habitude par le passé de présenter
certaines de ces méthodes comme tel, et notamment les méthodes fractales. En fait, il s’agit
d’indépendance théorique. La mise en œuvre pratique de ces méthodes les contraignent à
une résolution bien définie : que ce soit par le spectre limité de la synthèse par bruit, ou la
résolution limitée des exemples dans les méthodes à base d’exemples.
Les méthodes fractales reposent sur les observations initiales du mathématicien Benoît
Mandelbrot, sur une catégorie de modèles stochastiques susceptibles d’imiter ou reproduire
des phénomènes naturels d’apparence chaotique. En 1968 Mandelbrot et Van Ness [MVN68]
introduisirent le terme de mouvement fractionnaire Brownien (fractional Brownian motion,
abrégé fBm) pour décrire une famille de processus stochastiques Gaussiens unidimensionnels,
qui plus tard furent étudiés en dimensions supérieures, notamment 2D et dans le but de
générer des terrains virtuels. Un fBm appartient à la classe des bruits dite 1 : f , c’est-à-dire
aux signaux dont la contribution de chaque fréquence au spectre de puissance est quasiment
inversement proportionnelle à la fréquence. Un fBm est de plus statistiquement auto-similaire :
les échantillons du signal préservent leurs caractéristiques statistiques indépendamment de
l’échelle d’observation, d’où le terme fractal 4 .
2
Coupures aléatoires. Mandelbrot a proposé trois approches pour réaliser numériquement le
calcul d’un fBm, celle qui a perduré jusqu’à nous est une méthode prenant le fBm comme
limite d’un champ de Poisson fractionnaire [Man75 ; Man82]. Cette méthode, remise au
goût du jour par Voss puis Ebert [Vos85 ; Ebe+98], est celle de l’algorithme dit de faulting,
c’est-à-dire qu’il procède par coupes aléatoires dans le domaine : un n-champ fractionnaire de
Poisson est un champ où F (p) est en tout point p la somme d’une infinité de fonctions step
dont la direction, la localisation et l’amplitude sont trois séquences de variables aléatoires
mutuellement indépendantes (Figure 12).
Figure 12 : Illustration de l’algorithme de faulting : (a) 1 itération, (b) 10 itérations, (c) 50 itérations.
(Source : [WNM19])
La méthode repose sur une fondation théorique solide mais souffre malheureusement d’une
très mauvaise complexité (O(N 3 )). Elle a été toutefois remise en oeuvre récemment et adaptée
pour la génération de modelés spécifiques tels les mesas [WNM19].
Subdivision stochastique. Fournier et al.ont proposé également une façon de produire l’ap-
proximation d’un fBm numériquement [FFC82], et ce en temps linéaire, par subdivisions
itératives et stochastiques d’une n-grille de départ. Chaque itération consiste à introduire de
4. Le terme fractal est également à attribuer à Mandelbrot.
nouveaux sommets par interpolation du voisinage local et ajout d’une perturbation aléatoire
dont l’amplitude est dépendante du niveau de détail (de manière à garantir la dimension frac-
2 tale souhaitée pour le modèle). D’autres auteurs ont par la suite proposé soit des améliorations
soit des adaptations de la méthode initiale de l’algorithme diamond-square [Mil86 ; Lew87 ;
DKW94]. En particulier, il a été montré que la subdivision pouvait être contrôlée dans le but
de respecter des contraintes spécifiques. Dans [PH93] les auteurs proposent la modélisation
d’un terrain avec une rivière entièrement par subdivision ; cependant la rivière n’a pas de
tributaire et son altitude est zéro, c’est donc un modèle très sommaire (mais le premier à
montrer l’extensibilité de la méthode). Par la suite, cette approche gagna en maturité avec
[BA05a ; BA05b ; Bel07] où la subdivision suit des contraintes entrées par l’utilisateur telles
des lignes de crêtes ou des rivières (Figure 13). Enfin, Derzapf et al. [Der+11] montre que l’ap-
proche par subdivision stochastique possède un réel potentiel pour traiter de grandes échelles
efficacement puisqu’ils proposent la génération de réseaux hydrographiques en temps réel sur
toute une planète ; nous exposerons dans le Chapitre 4 une méthode d’hyper-amplification
qui s’en inspire mais qui permet en plus de générer différents modelés géomorphologiques en
sus des rivières.
Fonctions de bruit. Le mouvement fractionnaire Brownien peut aussi être approximé par
une somme à bande limitée de fonctions de bruit, dits bruits cohérents. De tels bruits ont
été proposés en 1985 par Ken Perlin [Per85], travail séminal qui a introduit un des outils de
modélisation procédurale les plus utilisés. La version initiale du Bruit de Perlin est un bruit de
gradient (Figure 14), i.e. une fonction calculée en tout point d’un domaine n-dimensionnel
par l’interpolation spline de gradients pseudo-aléatoires assignés aux sommets de la grille
discrète entière couvrant l’espace. La formulation initiale de Perlin a été par la suite étendue
[PH89] ou améliorée [Per02 ; Ken+08], notamment par adaptation à la grille simplicielle
pour une meilleure performance en haute dimension [Ola+02]. D’autres types de bruit ont
été également proposés : Bridson propose le curl-noise pour la simulation de fluide, basé sur
le calcul du rotationnel d’un bruit de gradient [BHN07], Worley introduit le bruit cellulaire
inspiré des diagrammes de Voronoï [Wor96]. Des bruits basés sur la convolution discrète
C D
Figure 14 : Synthèse à partir de somme de bruits cohérents : (A) bruit de gradient, (B) ridge noise
calculé comme complément de la valeur absolue sur chaque octave d’un bruit de gradient,
(C) multifractal, chaque octave est modulée en amplitude d’après la somme des octaves
2
précédentes, (D) multifractal augmenté d’une déformation, calculée par un bruit auxiliaire
appliquée aux positions avant évaluation de la fonction. (Source : [Gal+19])
Les méthodes procédurales, si on entend généralement par là les diverses formes de syn-
thèse fractale classique, n’offrent que peu de contrôle à l’utilisateur ou alors sous la forme
rudimentaire de paramétrage des algorithmes et ne produisent souvent que des formes de
terrain très auto-similaires, homogènes. Naturellement, des auteurs ont tenté de circonvenir
ces limitations. Les deux méthodes présentées dans cette section proposent d’augmenter
le modèle par de la sémantique, c’est-à-dire, pour un terrain, d’informations structurelles
supplémentaires.
Arbres de construction et hydrographie. Génevaux et al. [Gén+15] ont proposé une approche
procédurale à même de prendre en compte l’hétérogénéité des terrains. Un terrain réel est
souvent une composition complexe de diverses caractéristiques, distribuées à diverses échelles,
pics, lacs, falaises, collines, etc.. Leur méthode prend en compte ces éléments, en les modélisant
individuellement par des primitives de construction définies sur un support compact, lesquelles
sont combinées dans un arbre dont les noeuds intermédiaires sont des opérateurs, pour former
5. Qu’on ne peut pas évaluer à la volée par un algorithme direct en tout point de l’espace
Figure 15 : Divers paysages synthétisés par la méthode présentée dans [Arg+19] reposant sur la
métrique géomorphologique d’orométrie. La méthode est capable d’opérer à diverses
échelles, de petites étendues de dunes ou collines, aux grands ensembles montagneux.
(Source : [Arg+19])
Orométrie. Un autre travail atypique, novateur et récent est celui d’Argudo et al. [Arg+19]
reposant sur les métriques géomorphologiques d’orométrie caractérisant les reliefs et notam-
ment montagneux. Ce travail est partiellement relié à la thématique de l’évaluation quantifiée
du réalisme des terrains évoquée en section 2.1.1. En effet les auteurs montrent qu’avec une
métrique simplifiée basée sur l’orométrie il est possible de classifier automatiquement les
zones montagneuses de la Terre et de distinguer les chaînes de montagnes selon leurs zones
d’appartenance. Ils proposent également une méthode de synthèse de terrain travaillant à
partir d’un sketch utilisateur et qui place des points pics, des points selles (saddles points) et
Les modèles générateurs de terrains s’appuient le plus souvent sur une représentation
par champ de hauteur en 2.5D du terrain. Cette approche est en effet très efficace, dans le
cas des cartes de hauteur (heightmaps) l’accès se faisant en temps constant. A contrario les
représentations 3D, volumiques, sont en général coûteuses en temps de calcul et en capacité
de stockage, si l’on se réfère au pendant des grilles de hauteur, les grilles de voxels. Toutefois,
une représentation pleinement 3D offre des avantages qu’on ne peut entièrement négliger :
notamment la possibilité de modéliser des aspects de terrains réels impossible à transcrire sous
forme 2.5D, comme les arches de pierre, les surplombs de falaises et les systèmes de grottes.
De ce fait, certains auteurs ont proposé des approches volumiques de synthèse permettant de
reproduire ces phénomènes précis.
Dans [Pey+09a] une méthode efficace est proposée pour représenter des terrains volu-
miques. Elle prend en compte différents types de matériaux organisés en couches, l’encodage
ne se faisant pas en terme de voxels mais plutôt d’empilement des couches en colonnes ;
l’aspect volumique est rendu possible par l’ajout du matériau « air » permettant de créer
des cavités entre couches. Ce modèle stratifié est converti en représentation fonctionnelle
implicite : la surface du terrain est vue comme une surface de convolution, définie par l’in-
tégration d’un noyau convolutif à support compact cubique, appliqué au volume local de
matière. Cette représentation implicite permet de proposer divers opérateurs d’édition du
terrain, en temps interactif, permettant de sculpter le terrain en volume. Un va-et-vient est fait
entre la représentation implicite fonctionnelle et la représentation des matériaux stratifiés afin
de stabiliser ces derniers, de manière similaire aux méthodes d’érosion thermique (section
2.1.2.1).
Dans [Par+19a] les auteurs ré-utilisent les arbres de formes implicites pour modéliser des
caractéristiques pleinement 3D des terrains.Il s’agit d’une méthode essentiellement d’embel-
lissement qui accepte en entrée un terrain spécifié sous forme de fonction ou de carte de
hauteur. Le terrain est d’abord converti entièrement en représentation implicite, laquelle est
adjointe d’un second arbre implicite encodant la résistance de la roche. La représentation est
volumique et permet, par le jeu d’opérateurs de combinaison, dont des opérateurs spécifiques
permettant de reproduire des failles et des plissements dans les couches de résistances diverses
de la roche, de reproduire certains effets d’érosion (figure 16) : notamment l’érosion côtière
des falaises ou l’érosion karstique qui produit des systèmes de grottes. Le jeu des opérateurs
permet aussi la synthèse d’éléments localisés comme des hoodoos (cheminées de fée, figure
8) ou des surplombs, toutes sortes de caractéristiques volumiques par ailleurs impossible
à reproduire par la grande majorité des méthodes travaillant uniquement sur champs de
hauteur. L’approche est complètement procédurale, donc phénoménologique, mais permet de
s’attaquer à des phénomènes jusqu’ici largement ignorés comme par exemple l’érosion côtière.
De plus, la représentation en arbre de formes implicites se prête bien au contrôle utilisateur,
comme démontré dans des précédentes méthodes. Enfin cette représentation est multi-échelle,
l’inclusion de hoodoos (quelques dizaines de mètres) combinée à des systèmes de falaises
(quelques dizaines de kilomètres) le démontre également.
Figure 17 : Synthèse à partir d’un terrain exemple et d’un sketch utilisateur : à gauche une formation
montagneuse synthétisée à partir de l’exemple du Mont Jackson (USA), à droite une
formation encaissée synthétisée à partir de l’exemple du Grand Canyon (USA). (Source :
[Zho+07])
La méthode spécifiquement dédiée aux terrains de Zhou et al. [Zho+07] est la plus connue,
elle a ouvert la voie aux méthodes de synthèse à partir de cartes de hauteur (Figure 17).
Elle fonctionne par sélection de patches dans un terrain exemple et leur ré-ordonnancement
dans le terrain cible. Les patches sont d’abord placés autour de caractéristiques vectorielles
spécifiées par l’utilisateur qui figurent vallées et crêtes, la méthode offre donc une forme
de contrôle sur les grandes distributions du terrain. Un algorithme de coupure de graphe
2 délimite les coutures entre patches (lesquels sont possiblement déformés pour un meilleur fit),
suivi de la résolution d’une équation de Poisson pour ajuster les élévations de part et d’autre
des coutures. Cette méthode propose la synthèse globale de terrain, d’autres existent pour
des modes de synthèse plus particuliers, comme l’amplification par ajout de détails [BSS07],
ou la reconstruction de zones manquantes dans une carte de hauteur [WSG07]. Tasse et
al. [TGM12] ont amélioré la méthode de Zhou, en proposant une parallélisation au niveau des
patches ainsi que l’emploi d’une interpolation de gradients de Shepard au lieu du lissage de
Poisson, qui prend en compte non seulement les hauteurs mais leur gradient (i.e. la pente du
terrain). Gain et al. [GMM15] améliorent encore les performances en utilisant une approche
parallélisée dérivée de la synthèse de texture couleur où les extractions depuis les exemples
se font par pixel et non par patch ; la méthode est capable de temps interactifs grâce à une
implémentation GPU multi-exemple et travaillant sur des hiérarchies d’images, tout en offrant
de bonnes capacités d’édition à l’utilisateur (Figure 18).
Figure 19 : Diverses amplifications d’un même sketch utilisateur à partir de multiples exemples, d’après
la méthode de modélisation parcimonieuse de Guérin et al. [Gu16]. (Source : [Gu16])
2
[Gu16] ont été les premiers à appliquer ce bagage théorique à la modélisation de terrain.
Ils démontrent des possibilités pour la synthèse, l’amplification, la modélisation procédurale
inverse et la représentation compacte de terrains (Figure 19). Dans [Arg+17] l’approche a
été étendue pour prendre en compte, toujours dans le contexte d’encodage parcimonieux, de
multiples couches d’information comme l’humidité, la pente, l’orientation, l’aire de drainage,
ou encore des statistiques de distribution de végétation.
Dans [Gué+17] les auteurs démontrent le potentiel des GANs appliqués à la modélisation
de terrain. L’utilisation d’un cGAN (conditional GAN, [Iso+17]) permet de faire apprendre la
relation entre des cartes de hauteur réelles et leurs annotations (par exemple des lignes de
crête ou des pics) de sorte que le réseau générateur puisse produire des cartes de hauteur de
synthèse à partir de nouvelles annotations entrées par l’utilisateur (Figure 20). Ils démontrent
aussi la possibilité d’amplification de terrains, en créant, toujours avec des GANs, une sorte
de filtre d’érosion artificiel capable de haute fidélité tout en étant plus rapide de 3 ordres de
grandeur que les méthodes de simulation. D’autres auteurs ont exploré les outils d’appren-
2 tissage profond dans le contexte des terrains : dans [Zha+19] des GANs sont utilisés pour
réaliser l’amplification de terrains selon potentiellement plusieurs thèmes exemples, et dans
[ACA18] des réseaux neuronaux convolutifs plus classiques sont dédiés également à l’ampli-
fication, par un système de super-résolution travaillant sur des cartes de hauteur grossières
adjointes d’ortho-photographies aériennes couleurs en haute résolution, la correspondance
entre données couleur et données d’élévation étant apprise par le réseau neuronal.
2.1.4 Conclusion
La table 2.1 rassemble les méthodes importantes de l’état de l’art que nous venons de
présenter sur la synthèse de terrain classique, et restreint à l’informatique graphique. Nous
les présentons d’abord sous l’angle de l’échelle, c’est-à-dire à la fois de l’étendue (taille) et
de la précision (niveau de détail) du domaine de synthèse. Cette table permet de rassembler
les informations essentielles relatives aux résultats atteignables par ces méthodes : échelle
donc, mais aussi performance et expressivité. Toutes les méthodes physiques (simulations), à
l’exception de [Cor+16 ; Cor+18], sont limitées en terme spatial à des étendues faibles (au
mieux 10 km) et une précision limitée (le plus souvent discrète avec une résolution de 1000
échantillons dans une dimension donnée). Pour le reste, i.e. les méthodes multi-échelles, les
résultats de la synthèse sont assez variables. Les méthodes de synthèse à partir d’exemples
sont capables globalement de traiter de grandes étendues (> 1000 km), mais ne proposent
pas une bonne précision (le niveau de détail reste faible). Certaines méthodes procédurales
sont capables d’atteindre des étendues arbitraires (donc en particulier l’échelle maximale,
i.e. planétaire) tout en conservant une bonne précision, avec une bonne performance, mais
cependant ne présentent qu’une expressivité limitée. Comme on peut s’y attendre, chaque
méthode a ses spécificités et aucune n’est idéale pour traiter tout problème. Il s’agira, au
regard de la question de cette thèse, la synthèse de planètes détaillées, de retenir les bonnes
approches parmi ces méthodes classiques qui soient transposables à notre problème.
Le thème que nous explorons dans cette thèse est la synthèse de terrains à l’échelle maxi-
male, tout en offrant une bonne précision. Dans l’univers, les paysages, le relief, ont des
étendues naturellement bornées, celles de leur planète hôte. Toute la question est de savoir
comment, à partir des techniques existantes, permettant de générer des terrains plats et
de taille limitée, passer à cette échelle particulière caractérisée d’abord par un changement
topologique (sphérique), mais aussi une étendue considérable. Ajoutons que plus l’étendue
est grande plus cela implique potentiellement une diversité élevée de paysages, ce qui ajoute
au défi.
Les mondes qui orbitent les étoiles ne sont pas plats. Ce sont des objets quasiment sphériques,
car positionnés en équilibre hydrostatique, i.e. en équilibre interne entre gravité et pression.
2 Une planète tellurique comme la Terre comporte plusieurs couches sphériques : un noyau actif,
un manteau, et une lithosphère pour le domaine géologique, adjoints d’une hydrosphère (eau
liquide couvrant 71% du globe) et d’une atmosphère (qui empêche notamment la formation
de cratères d’impact d’éventuels astéroïdes). Ces sphères n’existent que parce que la Terre
est un astre différencié, du fait de sa masse mise en rapport avec son moment angulaire.
La géomorphologie terrestre est conditionnée, nous l’avons dit, par le jeu opposé des forces
géologiques et climatiques. Les formes des continents, les distributions d’arcs d’îles, les chaînes
de montagnes résultent de la tectonique des plaques, observées sur Terre comme un effet
de surface de la convection du manteau, elle-même activée par le noyau. Mais en détail, les
forces climatiques érosives de l’atmosphère et de l’hydrosphère viennent sculpter plus avant
ces grands reliefs : vallées, réseaux de drainage, lacs, deltas, monts et collines érodés, etc..
Notre Terre a un rayon moyen de 6370 km, soit une surface totale d’environ un demi milliard
de kilomètres carrés (150.106 km2 de surface continentale). Pour donner un ordre d’idée, en
terme de modélisation, un échantillonnage grossier à 1 km de précision nécessiterait donc
500 millions d’échantillons. Descendre à l’échelle du mètre, comme cela se fait de manière
standard en synthèse de terrain classique, demanderait un million de fois plus de données,
c’est-à-dire, si on triangule et qu’on attribue ces échantillons par une couleur, une élévation
et une normale (maillage de rendu minimal, sans informations topologiques ni de BRDF),
environ entre 10 et 20 Péta-octets de données (1015 ) seraient requis, soit plusieurs milliers de
serveurs de stockage de dizaines de Téra-octets chacun : c’est tout-à-fait considérable.
Depuis environ dix ans, des applications industrielles voient peu à peu le jour qui tentent
d’aborder l’échelle planétaire. Ceci pour plusieurs raisons : la capacité de traitement croissante
du matériel (notamment mémoires et cartes graphiques), la pression opérant sur les directeurs
artistiques les poussant à produire toujours plus et toujours plus grand, et la science-fiction
qui est devenue un genre culturel très populaire à travers le cinéma et les jeux vidéo. Dans
ce dernier secteur, on a assisté parallèlement au développement des jeux dits à "mondes
ouverts", où le joueur est libre d’explorer de vastes étendues extérieures et donc de vastes
terrains. L’exemple extrême est certainement le jeu Star Citizen(© Cloud Imperium Games), jeu
d’aventure spatiale multi-joueur où il est possible d’explorer des planètes entières, depuis orbite
jusqu’au sol (Figure 21). Ce jeu, toujours en développement mais très attendu, a fait l’objet
d’un financement participatif record de plusieurs centaines de million de dollars. La branche
allemande du studio CIG est en charge de trouver des solutions nouvelles pour répondre au défi
technologique de la modélisation et du rendu temps-réel de planètes complètes. Pour l’heure et
d’après les informations distillées par le studio, il semble que les planètes soient modélisées à
l’échelle 1/10 (1/6 pour les lunes) pour des raisons de performance et de précision (voir section
2.2.2.2) ; la technologie utilisée pour le terrain est le collage multi-échelle, semi-automatisé,
sur un cuboïde sphérique, de cartes de hauteur prétraitées (notamment avec des algorithmes
d’érosion) et augmentées de données telles que l’humidité, le biome (pour la végétation) et
les informations de textures (couleur, normale, BRDF, etc.). Notons que le mélange de cartes
de hauteur ne permet pas d’obtenir des réseaux hydrographiques cohérents, et de fait, d’après
les images du jeu disponibles, il semble que les cours d’eau soient complètement absents des
planètes représentées. Également, les développeurs ne disent pas comment ils traitent les
singularités de pavage aux huit coins du cuboïde et sur les huit arêtes horizontales.
2.2.2.1 Modélisation
L’approche prise par Derzapf et al. [Der+11] est toute aussi procédurale et même fractale
mais repose sur une subdivision stochastique sous contrainte pour produire le modèle plané-
2
taire. L’objectif de la méthode est de créer à la volée, en temps-réel, un réseau hydrographique
couvrant la planète qui soit cohérent d’un point de vue écoulement de l’eau, depuis les sources
des rivières, aux embouchures des fleuves. La méthode procède en deux étapes. La première
est un pré-calcul du maillage planétaire de base par insertion de sommets dans un octaèdre ;
les continents sont définis par marche aléatoire (random walk) sur les triangles, puis un
réseau hydrographique est construit à partir des embouchures des fleuves ; les altitudes des
sommets sur les cours d’eau sont définies de manière croissante. Tous les sommets continen-
taux appartiennent au réseau, aussi des sommets crêtes intermédiaires d’élévation élevée
sont introduits dans le maillage afin de séparer les cours d’eau. La seconde et principale
étape consiste à raffiner le maillage de façon adaptative (i.e. de manière dépendante à la
vue-caméra courante) par des séquences d’opérations parallèles impliquant soit la subdivision
d’arêtes (split), soit la fusion de sommets (merge) (Figure 24). Cette tesselation adaptative
repose sur les maillages progressifs (progressive meshes) introduits par [Hop96 ; Hop98a],
mais adaptée dans [HSH09 ; DMG10] pour être massivement parallélisable ; cette méthode est
complexe à mettre en oeuvre, du fait des informations topologiques spécifiques aux opérations
split/merge et des structures de données et de l’ordonnancement qui doivent être ajoutés du
fait de la parallélisation. La tesselation adaptative de Derzapf et al. opère sous contraintes,
Le rendu de planètes à l’échelle 1/1 pose en soi des défis particuliers. Il y a tout d’abord un
problème de précision numérique qui surgit lorsque l’on souhaite faire du rendu temps-réel
ou que l’on souhaite utiliser le GPU comme processeur massivement parallèle, notamment
2 pour la tesselation adaptative du modèle planétaire. Les flottants IEEE-754 encodés en 32
bits ne possèdent que 7 chiffres significatifs. Pour être stable à travers les calculs les positions
doivent être capable de variations à l’échelle du centimètre, or, la Terre faisant environ
6000 km de rayon, cela requiert au moins 9 chiffres significatifs. Sans stratégie palliative, la
plus immédiate étant de recourir aux flottants encodés sur 64 bits, ce qui se fait bien en
rendu offline mais pose problème dès qu’on utilise le GPU 7 , on s’expose à des artefacts de
rendu caractéristique tels le z-fighting (irrésolution des triangles en profondeur) ou le jittering
(sauts des positions géométriques dû aux troncatures). Pour prévenir le jittering plusieurs
parades ont été proposées. La première est de positionner l’origine du monde à la position
de la caméra et de translater tous les objets inversement, de sorte que les triangles proches
de la caméra aient des coordonnées petites [Tho07 ; CR11] ; l’opération peut être réalisée
en double précision sur CPU mais implique le transfert répété de la géométrie à mesure que
la caméra bouge, ou directement dans le vertex shader par émulation de double précision à
partir de deux nombres flottants encodés sur 32 bits [Tha06]. Concernant le problème de
l’irrésolution en profondeur (z-fighting), deux solutions sont possibles [CR11], la première
est de décomposer le rendu sur plusieurs frustums, mais avec des problèmes potentiels de
raccord de géometrie entre les frustums, ou d’appliquer une fonction de transfert à progression
logarithmique sur les valeurs de profondeur (log-z buffering), ce qui est plus robuste.
Ces problèmes de précision numérique existent bel et bien mais sont relativement bien
gérés avec les techniques que nous venons de mentionner. Cependant, quand on souhaite
rendre une planète à plusieurs échelles, se pose la question de comment générer la géométrie
de rendu (typiquement une triangulation). Il est bien entendu impossible de pré-calculer
l’entièreté du maillage planétaire au plus haut niveau de détail et de le stocker. La solution
est potentiellement la même que pour le rendu de terrains à haute précision et étendus.
Elle consiste à générer à la volée une représentation adaptée à la vue courante de sorte que
7. OpenGL n’intègre les double que depuis la spécification 4.0 (2010), et encore partiellement puisque les
étapes fixes du pipeline entre shaders n’accepte que des floats ; la situation pour l’API DirectX est encore plus
restrictive.
2.2.3 Conclusion
Jusqu’ici, seules des méthodes procédurales fractales ont été proposées pour modéliser des
planètes, avec représentation en champ de hauteur adapté à la sphère, par sommes de bruits
pour Musgrave, ou par subdivision stochastique contrainte pour Derzapf. Nous l’avons dit, les
méthodes physiques sont plutôt mono-échelles et coûteuses en temps de calcul et en besoins
de stockage. Sur ces bases nous serions tentés de considérer le problème de la modélisation
détaillée de planètes en nous cantonnant à l’approche procédurale, et même fractale. Pour
autant, nos propositions dans cette thèse relèvent d’une approche combinée : à la fois prenant
en compte la physique, et en offrant une résolution procédurale pour des raisons essentielles
39
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
Après avoir exposé le contexte de recherche nous développons dans ce chapitre une réponse
à la problématique de la modélisation de terrains à l’échelle planétaire, à la fois efficace et
réaliste. Nous souhaitons dépasser les limitations inhérentes aux approches fractales usuelles,
c’est-à-dire leur auto-similarité, leur homogénéité, et l’absence de contrôle artistique induit,
pour aboutir à un modèle plus riche, au sens géologique, et offrant plus de capacités d’édition
aux artistes. Nous proposons comme solution une architecture interactive capable de générer
des planètes de type terrestre. Sa spécificité est de s’appuyer intégralement sur une com-
préhension des facteurs générateurs des terrains classiquement décrits en géomorphologie.
L’observation clé est qu’ils apparaissent tous comme une déclinaison des forces tectoniques.
En prenant donc comme référentiel notre planète, la Terre, car objet tectonique réel de loin
le plus décrit et étudié, et en intégrant une dynamique tectonique dans notre modèle, nous
montrons qu’il est possible de dépasser les limitations mentionnées des méthodes procédurales
classiques.
Notre contribution principale est la création d’un modèle efficace et original, inspiré par la
géologie, qui approxime la déformation de la croûte induite par les forces tectoniques pour
obtenir in fine des planètes exhibant des caractéristiques géomorphologiques convaincantes.
Ce modèle, itératif et géométrique, est une simulation intégralement construite sur des heuris-
tiques performantes ; en cela elle diffère d’une approche géophysique précise qui chercherait
à minimiser l’erreur avec les observations du réel. Notre méthode procure à l’utilisateur
différents moyens pour contrôler l’évolution d’une planète et prescrire les zones de continents,
de montagnes, d’archipels. Enfin, elle représente une synthèse guidée du macro-relief d’une
3 planète, et peut être source de données a posteriori pour une méthode d’amplification : ce
peut-être les deux propositions propres à cette thèse (Chapitre 4), ou bien une technique
connue de l’art, par exemple [Ebe+98], [Gu16] ou [Cor+17a].
La Tectonique des Plaques est un modèle théorique de la croûte terrestre qui a émergé
progressivement au fil du XXème siècle, supplantant les explications précédentes plutôt par-
tielles rangées sous le terme-ombrelle de « Dérive des Continents », pour s’imposer finalement
dans les années soixante par deux publications séminales [Mor68 ; LP68]. Pendant longtemps
le modèle se limitait à expliquer qualitativement les phénomènes. Cependant, depuis deux
décennies la recherche en géophysique s’est orientée, comme beaucoup d’autres disciplines,
vers les outils de simulation numérique. On parle aujourd’hui de tectonophysique, et le focus
porte actuellement sur le manteau terrestre, le concensus scientifique étant que ce dernier
3
joue un rôle prépondérant, et plutôt méconnu. Il semble qu’on ne puisse pas se contenter
de voir la convection du manteau comme le mécanisme moteur des plaques tectoniques,
mais que les plaques elles-même seraient en fait l’expression de surface du système convectif
auto-organisé du manteau terrestre [BTR15]. Cependant, même avec les capacités de calcul
modernes, la recherche sur ces simulations, récente, se heurte à des défis substantiels. Par
exemple décrire par le bon jeu d’équations les rhéologies complexes et profondes des roches
en fusion [Com+12], dont la connaissance directe ne peut être obtenue que par sondages
sismiques, ou par échantillons métamorphiques ramenés à la surface par volcanisme. Ou
encore et à l’instar des modèles climatiques, concevoir des modèles numériques performants
transverses à de nombreuses disciplines (pétrologie expérimentale, physique des minéraux,
séismologie, géodynamique, etc.). Par ailleurs, le problème du coût computationnel se pose,
car contrairement aux simulations climatiques qui opèrent sur des grilles géodésiques de faible
épaisseur, une simulation du manteau doit se déployer sur toute la profondeur du globe (on
passe de 2.5D à 3D) : en pratique, une exécution d’un modèle moderne requiert plusieurs
mois de calcul sur un cluster dédié [CS17]. Enfin, et bien que ces modèles numériques soient
parmi les plus complexes jamais écrit par l’homme, pour autant, nous ne sommes toujours pas
en mesure de répondre à des questions simples, comme, quelle serait l’origine des plaques
tectoniques ?
Croûte continentale
Croûte océanique
Asthénosphère
Lithosphère
Manteau
3
Noyau externe (liquide)
Dans le modèle classique, les plaques tectoniques sont décrites comme une partition de la
lithosphère, la couche planétaire supérieure (figure 25). Comme la lithosphère est plus froide
et moins dense que l’asthénosphère, la couche sous-jacente, les plaques peuvent être vues
comme des fragments rigides, ou des "dalles" flottantes, dérivant au-dessus d’un manteau en
fusion. La croûte terrestre proprement dite, c’est-à-dire la partie supérieure de la lithosphère,
peut être de deux types : océanique ou continentale. La croûte continentale est toujours plus
âgée, moins dense et plus épaisse que la croûte océanique, et cela induit une différentiation
Figure 26 : Les trois modes canoniques d’interaction des plaques tectoniques : zones de convergence,
zones de divergence et zones de décrochement (cisaillement). (Source : Domdomegg
2016, contributeur wikipedia)
Subduction simple. Une subduction implique typiquement la rencontre d’une plaque océa-
nique Pi avec une autre plaque Pj . Si Pj est de type continental, alors la plaque océanique
entrera en subduction. Inversement, si Pj est océanique, alors la plus âgée des deux plaques
Rift africain
Dorsale océanique
Figure 27 : Gros plan sur une carte tectonique de la Terre, montrant les zones de divergence, de
convergence et de décrochement ainsi que les ordres de grandeur du mouvement tecto-
nique. En couleur et fléchés, les phénomènes que nous souhaitons prendre en compte dans
notre modèle. (Image de fond et données : NGDC World Coast Line data, Peter Bird, Eric
Gaba)
Arc volcanique
Océan Fosse
Lithosphère Lithosphère
3
AS
Slab Pull
Asthénosphère
Figure 28 : Illustration d’une zone de subduction pour le cas d’une convergence entre une plaque
océanique et une plaque continentale. La subduction induit une déformation de la surface
de la plaque chevauchante, par volcanisme et plissement.
Lithosphère
3 Asthénosphère
Figure 29 : Zone de divergence entre plaques : une dorsale océanique (profondeur moyenne 2 km) se
forme et se maintient par production magmatique continue venue du manteau. A mesure
que la croûte océanique s’étend et se refroidit, celle-ci se densifie et s’affaisse, formant de
grandes plaines abyssales.
Divergence de plaques. Les diverses zones de subduction d’une planète recyclent à terme
dans le manteau et en moyenne en moins de 200 millions d’années (Ma) l’intégralité de
la croûte océanique. Comme la lithosphère maintient parallèlement sa couverture, i.e. on
n’observe pas de « trous » dans la planète, c’est qu’il existe un mécanisme symétrique qui
génère de la croûte océanique. Ce rôle est rempli par les dorsales océaniques, lieu d’effusion
magmatique qui assure la création de plancher océanique. À mesure que les plaques divergent
(car attirées à l’autre bout par leurs fronts de subduction), la nouvelle croûte émerge, suit
et s’étend, depuis les dorsales, dans un processus continu de remontée du basalte, refroidi
au contact de l’eau et affleurant du fait de la séparation divergente des plaques (Figure 29).
Le magma solidifié constitue le nouveau plancher océanique ; et les dorsales forment des
structures de relief linéaire sous-marin, caractéristiques, qui s’élèvent à plusieurs kilomètres
au-dessus de la plaine abyssale. L’exemple typique de dorsale sur Terre est la dorsale des
Atlantiques nord et sud.
océanique
Erosion
Figure 30 : Aperçu de la méthode : étant donné une planète initiale décrite par ses plaques P(0),
nous calculons le mouvement tectonique des plaques P(t) et traitons les évènements
tectoniques tels la subduction, la collision ou encore la génération de croûte océanique.
Ces évènements façonnent la croûte terrestre C.
Des trois modes d’interaction tectonique, pour rappel convergence, divergence et cisaille-
ment, nous ne retenons que la convergence et la divergence de plaques. Ceci car ces deux
modes engendrent l’essentiel des reliefs terrestres et sous-marins, a contrario du troisième.
Lorsque les plaques convergent ou divergent, divers phénomènes peuvent se produire. De la
variété des phénomènes tectoniques que l’on observe dans le monde réel, nous conceptualise-
rons quatre grands archétypes : subduction/obduction, collision continentale, génération de
croûte océanique, et fragmentation de plaque (Figure 31).
3
Collision continentale
Figure 31 : Exemples terrestres des quatre phénomènes tectoniques majeurs reproduits dans notre
modèle : subduction, collision continentale, génération du plancher océanique et fragmen-
tation de plaque.
Notre but est de générer le macro-relief d’une planète. Nous nous appuierons donc sur
l’observation suivante : les structures d’intérêt émergent des interactions en bordure des
plaques tectoniques, à mesure que celles-ci dérivent. Pour les raisons évoquées en observations
préliminaires de ce chapitre, nous nous cantonnerons au cadre de la tectonique des plaques
classique, nous ne nous intéresserons pas aux phénomènes profonds de la planète, i.e. à la
convection du manteau, laquelle n’intervient pas directement dans la génération du relief.
Plus formellement, la surface d’une planète est définie par l’union, notée P, de plaques
tectoniques Pi (Figure 32). Chaque plaque Pi est une portion de la croûte terrestre C.
Plaque Pi c Terranes R
Élevation p Continentale
z Océanique s(c)
0
e(p)
w w
Croûte C Bordure de plaque
Paramétrage Mouvement G
Symbole Description
3 xC Type de la croûte (océanique ou continentale)
e Épaisseur de la croûte
z Élevation de surface (relief)
ao Âge de la croûte (si océanique)
r Direction locale de dorsale (si océanique)
ac Âge de l’orogénie (si continentale)
o Type d’orogénie (si continentale)
f Direction locale de plissement (si continentale)
Table 3.1 : Paramétrage de la croûte terrestre, défini à la surface de la sphère.
Paramétrage. Une plaque est paramétrée continument par les fonctions suivantes, définies
en un point p de la sphère (Table 3.1) : type de croûte xC (p), épaisseur de la croûte e(p) et
élévation z(p) (fonction de relief). Selon le type de croûte xC , qui peut être soit océanique soit
continental, nous ajoutons les paramètres suivants : âge de la croûte ao (p) et direction locale de
dorsale r(p) pour la croûte océanique - et type d’orogénie o(p), direction locale de plissement
f (p) et âge de l’orogénie ac (p) pour la croûte continentale. L’âge de la croûte océanique
représente le temps écoulé depuis sa formation le long d’une dorsale océanique. La direction
locale de dorsale est un vecteur normalisé orienté parallèlement à la dorsale océanique la
plus proche. Le type d’orogénie o, pour une zone continentale, peut être soit Andéen soit
Himalayen et résulte respectivement d’une subduction ou d’une collision continentale, il s’agit
Mouvements. Chaque plaque évolue sur la sphère selon un mouvement rigide géodésique,
noté G. Comme en première approximation nous considérons la surface de la planète identique
à une sphère parfaite 1 , ce mouvement géodésique est donc une rotation définie par un axe w
passant par le centre de la planète. Soit ω la vitesse angulaire, on définit la vitesse de surface
en tout point p comme s(p) = ω w × p. La vitesse moyenne d’une plaque est de l’ordre d’une
dizaine de millimètres par an, la vitesse maximale observée sur Terre est de ≈ 100 mm.a−1
(vitesse de la plaque Pacifique).
Constantes. Le modèle repose enfin sur un ensemble de constantes. Le tableau 3.2 montre
les valeurs utilisées pour l’expérimentation. Le niveau de la mer a été posé égal à 0, et sert
d’élévation référence. Certaines de ces valeurs sont propres au modèle et ont été choisies après
essais répétés pour leur plausibilité ; d’autres sont simplement celles observées sur Terre.
1. Une planète réelle est en fait un géoïde oblongue, approximable par un ellipsoïde défini par un rayon
équatorial et un rayon polaire. Introduire cet aplatissement, de moins de 1% pour la Terre, rendrait la géométrie
du modèle complexe et impacterait donc grandement les perfomances, pour un très faible gain en réalisme.
2i
lati = arcsin
2P + 1
loni = 2πiφc
√
1+ 5
Où φc est le complémentaire du Nombre d’Or, φc = φ − 1 = 2 − 1.
3 Les sommets de Fibonacci construits forment autant de points d’échantillonnage de la croûte
terrestre : en chacun nous stockons des valeurs pour les paramètres décrits précédemment
(3.2.2, Tableau 3.1).
2. Soit une résolution moyenne de 110 km ou 35 km respectivement, pour un rayon planétaire de 6370 km
similaire au rayon terrestre.
3. Qui sont les 20 sommets d’un dodécaèdre.
AB × AC
G=R
||AB|| ||AC||
Pi = {q ∈ S 2 | δg (w(q), pi ) ≤ δg (w(q), pj ), j 6= i}
Figure 35 : Une plaque tectonique est représentée dans le modèle par une triangulation de Delaunay
sphérique partielle, chaque sommet portant le paramétrage de la croûte.
Une fois l’état initial spécifié, le cœur de la méthode consiste en une simulation approximant
les phénomènes tectoniques principaux. Ce processus itératif est basé sur un pas de temps δt,
fixé dans l’implémentation à deux millions d’années (2 Ma). Nous modélisons les interactions
suivantes entre plaques tectoniques : subductions/obductions (3.3.1.1), collisions (3.3.1.2),
génération de plancher océanique (3.3.2.1), et fragmentations (3.3.2.2). Chaque phénomène
3 modifie les caractéristiques de la croûte globale. À chaque pas de temps nous ajoutons aussi
une passe d’ajustement des élévations de surface (3.3.3), afin de reproduire sur ces échelles de
temps étendues une érosion continentale et une évolution des élévations sub-océaniques. En
pratique une simulation typique s’étend sur plusieurs minutes pendant lesquelles l’utilisateur
peut intervenir : il peut mettre en pause la simulation à tout pas de temps pour rediriger
les plaques et/ou les transformer, puis reprendre le processus automatisé de résolution
tectonique.
3.3.1 Convergence
La convergence de deux plaques peut induire une subduction, ou une collision continentale,
en fonction de la configuration locale. Nous exposons d’abord la méthode de résolution des
subductions, avant d’aborder les collisions.
3.3.1.1 Subduction
La simulation déclenche une subduction d’après un ensemble limité de règles opérant sur
les paramètres globaux de chaque plaque. Deux plaques océaniques convergentes impliquent
En pratique, le modèle gère de manière unifiée les subductions et les obductions. Tant que
les masses continentales chevauchantes ne sont pas significatives, on autorise la subduction
de terranes. Sur le plan des traitements, une obduction sera identique à une subduction, au
facteur d’impact près : la plaque chevauchante subira ainsi un soulèvement plus important
dans le cas d’une obduction. Si les terranes subduits finissent par rencontrer une portion
continentale adverse suffisamment grande, alors et uniquement alors, nous déclenchons une
collision continentale. Une telle collision forme un évènement simulé discret ponctuel, donc
traité intégralement sur un unique pas de temps donné ; contrairement aux subductions qui
sont des processus continus, évoluant sur plusieurs pas de temps consécutifs.
Prisme
d’accrétion Soulèvement tectonique
Croûte
océanique s(c i ) s(c j ) Croûte 3
p continentale
Lithosphère
Asthénosphère
Modèle. En nous restreignant sans perte de généralité à un front unique de subduction entre
deux plaques, nous calculons l’évolution de la croûte par soulèvement induit dans la région
chevauchante. Soit p un point de la plaque supérieure Pj , et soit d(p) la distance au front de
subduction (i.e. à la zone d’amorce de la subduction, Figure 36). Soit v(p) = ksi (p) − sj (p)k
la vitesse de surface relative des deux plaques en ce point. Nous définissons le soulèvement u
ej
de la plaque Pj comme la combinaison de trois fonctions de transfert opérant chacune sur : la
~
rs
d0 v0 v 0 1
z
Transfert de distance Transfert de vitesse Transfert d’élévation
Figure 37 : Courbes de transfert pour le soulèvement de type Andéen (i.e. par subduction) : f prends
en compte la distance au front, g prends en compte la vitesse relative des plaques, et h le
relief porté par la plaque plongeante.
distance au front de subduction, la vitesse relative des deux plaques, et l’élévation moyenne
locale de la plaque subduite Pi (Figure 37) :
3 un maximum à une certaine distance du front puis une asymptote vers zéro à partir d’un
certain seuil, i.e. quand d(p) ≈ rs , avec rs la distance maximale d’effet des subductions
(définie comme constante du modèle dans la table 3.2) :
2 (p)/r 2
f ◦ d(p) = e3d(p)/rs e−9d s
La fonction g est définie par une simple forme linéaire croissante : g(v) = v/v0 . Ici, v0 est
une constante représentant la vitesse maximale autorisée des plaques (table 3.2).
Si ze(p) dénote l’élévation normalisée par rapport à la profondeur maximale des fosses
océaniques zt et à l’élévation continentale maximale zc du modèle, alors l’influence du relief
de la portion de croûte en subduction de la plaque Pi à hauteur de p est :
Ceci signifie, intuitivement et comme nous l’avons évoqué en préambule, que les élévations
marquées ont un impact plus important sur le soulèvement. C’est le cas pour des formations
océaniques (plateaux immergés) et encore plus pour des systèmes continentaux (îles, terranes),
alors qu’inversement la plaine abyssale nue n’apporte que peu de soulèvement. Notons
qu’en pratique du fait de l’emploi systématique d’heuristiques le modèle est entièrement
La direction de plissement dans la zone d’orogénie est mise à jour d’après la direction relative
de convergence des deux plaques :
La direction est normalisée a posteriori. Comme une subduction est un évènement continu
étalé sur plusieurs pas de temps, on modifie graduellement la direction de plissement, et β est
une constante pondérant l’influence pour un pas de temps de la vitesse relative.
wi (t + δt) = wi (t) +
n−1
X c i × qk
||ci × qk ||
δt 3
k=0
Les points qk sont localisés sur le front de subduction. La transformation de l’axe rapproche la
plaque Pi de ce dernier. La modification du mouvement géodésique est proportionnée par
le paramètre ; en pratique 1 de telle sorte qu’en un pas de temps un point qk aura
une influence très limitée sur le mouvement de la plaque, alors que des fronts de subduction
étendus, i.e. composés de nombreux points, auront une influence notable.
La convergence de deux plaques avec une présence suffisante de masse continentale de part
et d’autre peut résulter, après une phase d’obduction initiale, en une collision continentale.
Les terranes portés par la plaque subduite se détachent de celle-ci (Slab Break) et viennent se
suturer au continent rencontré sur la plaque chevauchante.
Modèle. Nous considérons ici une plaque océanique Pi comportant un terrane R, convergeant
vers une plaque continentale Pj . Contrairement aux subductions, qui sont des processus
continus (i.e. s’étendant sur de nombreux pas de temps consécutifs), une collision est un
x
∆z(p) = ∆c A f ◦ d(p, R) f (x) = (1 − ( )2 )2
r
p−q
f (p, t + δt) = (n × )×n
||p − q||
En tout début de chaque pas de temps nous appliquons les mouvements géodésiques. Sur
chaque sommet de chaque triangulation représentant les plaques, nous appliquons ainsi
la rotation G. Nous prenons également soin de faire évoluer le paramétrage vectoriel des
sommets : direction locale de plissement f et direction locale de dorsale r sont toutes deux
transformées par la rotation, afin de préserver la cohérence géométrique du modèle. Ce
traitement appliqué à chaque sommet est parallélisé afin de préserver les performances. Une
fois le mouvement appliqué à la croûte, nous passons au cœur des traitements consistant en
la détection et l’application des effets de la convergence des plaques.
Les interactions entre plaques ne sont que rarement binaires dans la pratique. Ainsi une
plaque peut sans problème entrer en subduction sous plusieurs autres plaques, formant ainsi
autant de fronts de subduction. Réciproquement une plaque donnée peut chevaucher plusieurs
plaques subduites. Il en va de même pour les collisions continentales, qui de surcroît, non
seulement évoluent depuis les obductions, mais interviennent potentiellement en même temps
que des subductions, sur une plaque donnée. La complexité du modèle vient essentiellement
de son aspect dynamique. C’est pourquoi il comporte une phase importante, à chaque pas de
temps, de détection et de suivi des interactions convergentes.
Suivi. Pour chaque plaque nous procédons au suivi d’une liste de ses triangles susceptibles
d’interaction. Cette liste est initialement créée à partir des triangles frontières de la plaque.
Dès qu’un triangle est par la suite repéré activement convergent (i.e. en subduction ou en 3
collision), chacun de ses voisins est examiné et s’il est également actif est ajouté à la liste,
et ceci récursivement. La liste est maintenue en mémoire et évolue à chaque pas de temps.
√
Cette approche permet de restreindre le coût de la détection des convergences à O( N ) en
moyenne, si N est le nombre de triangles de la plaque, par rapport à une approche brute force
en O(N ) où on testerait systématiquement tous les triangles. En sus du suivi individuel des
triangles des plaques, nous procédons aussi au suivi des évènements globaux entre plaques.
Nous instancions ainsi en début de simulation une matrice de subduction, laquelle est en
charge de marquer les paires de plaques en subduction. Cette matrice est valide et maintenue
en mémoire pendant un certain nombre de pas de temps, un intervalle associé au remaillage
épisodique de la planète (voir divergence, Section 3.3.2.3), après quoi elle est réinitialisée.
Traitement de la convergence. Dans le même pas de temps nous testons ensuite itérativement
chaque triangle inclut dans les listes de suivis des plaques. Nous mémorisons un certain nombre
d’informations pour un tel triangle, à commencer par la distance au front de convergence.
Cette distance est en fait une approximation, nous procédons par sur-estimation de la distance
réelle en calculant d(p, t + δt) = d(p) + s(p)δt, c’est-à-dire que nous incrémentons simplement
la distance selon la vitesse de la plaque, avec d(p) = 0 pour un triangle qui entre dans la liste
de suivi (donc situé sur le front de convergence). Ce calcul est bien sûr inexact, cependant
procéder autrement induirait une dégradation des performances de la simulation, en effet
il faudrait calculer la distance au triangle le plus proche situé sur le front de subduction,
donc parcourir le maillage (pour chaque triangle), tout en discriminant entre les possibles
multiples plaques chevauchantes. Au final et en pratique nous retenons cette approximation,
s’avérant extrêmement rapide et produisant de bons résultats. Pour un triangle Ti appartenant
à une plaque Pi , la première chose à faire est de tester s’il est déjà marqué comme étant en
subduction et si d(p) > rs . Si tel est le cas il n’a plus aucune influence sur la tectonique, un
tel triangle représentant une partie de la croûte entièrement engloutie dans le manteau, il
peut donc disparaître des traitements. Sinon, nous procédons aux tests d’intersection : nous
3 émettons un rayon connectant le centre de la planète au barycentre du triangle Ti , et nous
testons l’intersection avec tous les triangles des autres plaques, ceci de manière accélérée
grâce aux multiples BVH. Pour chaque intersection trouvée, il faut ensuite la valider.
• Si le triangle Ti n’est pas encore marqué comme étant en subduction (i.e. il commence à
entrer dans la zone de convergence) et que la subduction entre la plaque Pi et la plaque
intersectée Pj n’est pas autorisée, l’intersection est également rejetée. Le modèle autorise
une subduction entre deux plaques, soit en lisant l’état de la matrice de subduction, soit
en testant les règles présentées précédemment (3.3.1.1) si l’entrée n’est pas présente
dans la matrice.
5. Procédé standard dans le domaine du rendu par tracé de rayons, pour traiter la géométrie des scènes et
réaliser des intersections rayon-triangle rapides.
Mode de collision À chaque pas de temps, une fois les BVH construits, le suivi des conver-
gences effectué et les subductions traitées par triangle, nous procédons au traitement spécifique
des collisions continentales. Nous examinons ainsi séquentiellement chaque plaque Pi :
1. D’après la liste de suivi des triangles de Pi nous construisons, pour chaque plaque
adverse Pj , une liste de triangles de Pi impliqués dans la collision avec Pj . 3
2. Pour chaque plaque Pj , nous acceptons la collision uniquement si au moins un triangle de
Pi a dépassé la distance minimale de collision, fixée à 300 km dans l’implémentation. Il
s’agit d’un test sur d la distance au front de convergence, i.e. l’interpénétration minimale
des deux plaques est à garantir avant de procéder au traitement de la collision.
3. La première plaque Pj qui passe le test est traitée :
a) Calcul des terranes. Nous détectons par exploration du maillage de Pi tous les
terranes impliqués dans la collision. Chaque terrane est une collection de triangles
connexes de Pi qui portent de la croûte continentale. Un traitement spécifique est
également ajouté afin d’inclure dans les terranes toute portion de mer intérieure
éventuelle ; il arrive ainsi que des mers intérieures se forment lors de la rencontre
de deux continents, la collision emprisonnant une étendue de croûte océanique :
il s’agit de bien inclure cette zone dans le terrane/continent résultant lorsque celui
ci entre à nouveau en collision.
b) Vérification de la zone de collision. À partir des données de convergence mémorisées
lors du suivi, nous procédons à l’évaluation de la masse continentale rencontrée.
En partant des triangles de Pi en collision nous cherchons à calculer le nombre de
6. 0.1 dans l’implémentation
Au final et sur le plan numérique la convergence repose sur des intersections entre plaques,
calculées de manière optimisée grâce à l’usage de structures accélératrices classiques. La
difficulté vient de la dynamique induite par la simulation ; pour y faire face nous proposons
un ordonnancement des opérations reflétant la phénoménologie de la tectonique : d’abord
effectuer le suivi de la convergence générale des plaques, puis traiter subductions/obductions
de manière locale (au niveau des triangles) mais d’après des règles globales, enfin ajouter une
passe de résolution dédiée au traitement des collisions (qui évoluent naturellement depuis
les obductions). Globalement et afin d’assurer un traitement efficace nous procédons à des
simplifications qu’il convient de noter à nouveau : sur-estimation des distances aux fronts de
convergence et représentation dynamique entièrement surfacique (les plaques sont contraintes
7. En pratique, il est possible que la collision inverse soit acceptée plus loin dans le traitement, i.e. la plaque
Pj collisionne avec Pi ; ceci car nous passons en revue toutes les plaques et que leurs triangles respectifs ont
été correctement marqués en collision dans l’étape de suivi. Ceci peut aussi se dérouler lors d’un pas de temps
ultérieur.
3.3.2 Divergence
Nous avons présenté les deux modèles de convergence des plaques tectoniques. La di-
vergence est le pendant naturel à la convergence et est nécessairement observée du fait de
présence exclusive de mouvements rigides. Les deux phénomènes tectoniques essentiels asso-
ciés à la divergence sont la génération de croûte océanique, le long des dorsales océaniques,
et la fragmentation de plaques. Le premier phénomène s’articule symétriquement aux subduc-
tions, quand le second vient contre-balancer les collisions continentales. La section 3.3.2.1
et la section 3.3.2.2 présentent les modèles conceptuels choisis pour recréer respectivement
la production de plancher océanique et le rifting d’une plaque. La section 3.3.2.3 montre
comment procéder en pratique pour implémenter ces deux modèles.
La croûte océanique se forme le long de la dorsale qui sépare deux ou plus plaques 3
divergentes (Figure 39), quelque soit la nature des plaques séparées. À mesure que la croûte
océanique vieillit elle se refroidit et se densifie, ce qui induit la tendance à l’affaissement et la
formation de plaines abyssales (par opposition aux dorsales qui sont comme des chaînes de
relief, des proéminences sous-marines). Nous voudrons ici combler les vides laissées entre les
plaques divergentes par l’introduction d’une nouvelle étendue de croûte, de type océanique.
Pj
s(c j ) Dorsale G
q
r
dP (p)
Pi p d G (p)
s(c i ) s(c k )
Pk
Distances à la plaque
Jonction triple entre plaques divergentes
et à la dorsale
Figure 39 : Divergence de plaques et génération complémentaire de plancher océanique.
r(p) = (p − q) × p
Le rifting d’une plaque est modélisé comme un évènement discret, intervenant à un instant
précis t. Il s’agit de la fragmentation de la plaque en plusieurs sous-plaques, lesquelles auront
tendance par la suite à diverger les unes des autres . Ce phénomène occupe un rôle important
dans le réalisme global des planètes virtuelles générées car il empêche la formation trop rapide
des super-continents (dû aux collisions continentales).
Le modèle fracture une plaque Pi en n sous-plaques Pij . Nous fixons n petit, en pratique
n ∈ [2, 4]. La ligne de fracture et donc la forme des nouvelles plaques Pij est calculée par la
distribution uniforme de n centroïdes cj sur la plaque Pi suivi de la construction des cellules
de Voronoi correspondantes, qui donneront l’étendue des nouvelles plaques. Nous ajoutons
une déformation aux cellules dans l’idée d’obtenir des lignes de fractures irrégulières entre
plaques : le procédé pour y parvenir est le même que celui décrit pour la création des plaques
tectoniques (Section 3.2.4), pour rappel nous appliquons simplement du bruit cohérent dans
L’axe est bien entendu normalisé a posteriori, qj représente le barycentre des centroïdes autre
que celui de la plaque considérée. La vitesse de divergence aléatoire est initialement faible
(quelques millimètres par an), mais grandira avec la survenue de futures subductions.
La fragmentation d’une plaque Pi est représentée par une variable aléatoire, laquelle suit
une loi de Bernouilli de paramètre pi :
pi = min(1, p xC A/A0 )
3.3.2.3 Implémentation
Le modèle de divergence tel que présenté semble d’emblée complexe à mettre en œuvre
en terme de temps de calcul. En effet, et pour la seule génération de plancher océanique, il
faudrait repérer les zones de vide laissées entre plaques, donc faire des calculs de distance
entre frontières, puis augmenter les triangulations par de nouveaux échantillons tout en
prenant soin de ne pas introduire de chevauchement entre plaques (qui seraient détectés
comme des zones de convergence par l’algorithme) tout assurant l’étanchéité de la planète,
i.e. la couverture complète des zones de vide. Si on souhaite préserver l’interactivité de la
simulation, calculer à chaque pas de temps l’augmentation des TDS tout en garantissant ces
contraintes est en fait une tâche difficile.
8. Notons que si les paramètres associés aux plaques étaient constants,
P la somme des variables aléatoires
suivrait de manière approximée une loi de Poisson de paramètre λ = i pi , qui décrirait donc le comportement
global de la planète par la probabilité d’observer un ou plus évènements de rifting dans une certaine fenêtre de
temps.
Pour finir, nous mémorisons pour le sommet global p l’indice de la plaque existante
la plus proche.
3. Nouvelles plaques. Il s’agit ensuite de partitionner l’ensemble des triangles de la TDS
globale afin de re-créer les plaques tectoniques. Nous nous servons pour cela des
Érosion continentale. Le relief des continents est sculpté par une grande variété de phéno-
mènes érosifs notamment hydrauliques, thermiques, glaciaires et éoliens. Comme, problémati-
quement, de tels facteurs géomorphologiques exogènes agissent surtout localement sur le relief
(en-deçà de 10 km) pour le sculpter en détail, que par ailleurs nous travaillons sur une planète
complète, avec une résolution de ≈ 50 km, et que la granularité temporelle est grande (2 Ma),
nous ne pouvons appliquer aux élévations qu’un modèle d’érosion simple. Nous ajustons donc
à chaque pas de temps les élévations continentales selon la formule suivante :
z(p, t)
z(p, t + δt) = z(p, t) − c δt
zc
Par ailleurs, les fosses océaniques, qui sont les lieux les plus profonds de la planète, tendent
à se remplir avec ces millions d’années de sédiments, notamment par la présence du prisme
d’accrétion créé par la subduction entre les deux plaques délimitant la fosse. Nous approximons
cet effet en modifiant l’élévation des points situés dans des fosses ainsi :
Enfin, nous appliquons à nouveau un peu de bruit cohérent afin de moduler localement
l’importance de ces trois effets d’ajustement, pour plus de variété sur le modèle final.
3.4 Résultats
3 Notre méthode a été implémentée en C++ et testée sur un Intel Core i7 − 6700 K à 4 GHz
avec 16 Go de RAM. Les planètes montrées ici ont été générées par notre algorithme de
re-création tectonique. Sauf mention contraire, nous avons utilisé 500 000 échantillons pour le
modèle sur une planète de rayon 6 370 km, similaire à la Terre, soit une précision moyenne de
≈ 35 km.
3.4.1 Validation
Comparaison avec d’autres méthodes. Alors que beaucoup de méthodes ont été proposées
pour la modélisation et la génération de terrains et de paysages virtuels, bien peu d’approches
existent pour la synthèse de planètes complètes. Ces approches sont pour l’instant toutes
fractales et s’appuient soit sur des combinaisons de bruits procéduraux [Ebe+98], soit sur
une variante de l’algorithme de mid-point displacement [Der+11].
3
Étude. Nous avons mené une étude utilisateur à étendue limitée afin d’estimer le réalisme
perçu des planètes de synthèse générées par notre modèle tectonique en comparaison avec
l’approche fractale à base de bruits [Ebe+98]. Nous avons choisi de comparer les résultats
en utilisant une expérience à choix forcé à deux alternatives. Les participants de l’expérience
ont été confronté à 6 paires d’images, et nous leur avons demandé de choisir la plus réaliste
dans chaque cas. L’ordre global de présentation, ainsi que l’ordre des paires, ont été tirés
au hasard. Dans l’expérience, le rendu graphique des deux planètes effectué par nos soins a
été strictement identique, dans le but d’éliminer ce biais de perception. 24 personnes, âgées
entre 22 and 28 ans, ont participé à l’étude. Notre modèle tectonique a reçu un total de 97
votes, comparé aux 47 reçus pour le modèle fractal classique. Ceci produit un χ2 de 8.3 et une
p-value de moins de 0.4%, ce qui penche en faveur de notre modèle.
Nous avons enfin fait valider le résultat de notre simulation par Nicolas Coltice, géophysicien
français renommé et expert en tectonophysique. Il s’est montré très positif sur le réalisme
global de l’animation des planètes virtuelles et a confirmé que les effets produits par notre
modèle lui apparaissaient plausibles. De plus, l’expert a relevé quelques défauts mineurs
qui devraient être pris en compte pour améliorer la méthode, ce qui permet d’envisager des
extensions et corrections futures intéressantes.
3.4 R ÉSULTATS 71
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
3.4.2 Performance
Le tableau 3.3 rassemble des temps d’exécution moyens pour la génération dynamique
de la croûte. La planète a, en état initial, 40 plaques tectoniques et un ratio de couverture
continentale de 0.3. La génération de la croûte océanique et la fragmentation (divergence)
représentent les étapes les plus lourdes, mais ne sont effectuées qu’épisodiquement, entre 32
et 128 Ma d’après la vitesse de plaque maximum observée ; les autres phénomènes (conver-
gence) peuvent être calculés à fréquence interactive à chaque pas de temps. L’application
3 des mouvements géodésiques des plaques, le contrôle des élévations de surface, le calcul des
données globales des plaques et la construction des BVH sont parallélisés sur plusieurs threads
CPU du fait de la nature indépendante de ces opérations.
L’intervention de l’utilisateur n’est toutefois pas requise, et notre méthode peut générer
d’elle-même des planètes synthétiques possédant une dimension temporelle. Étant donné
une distribution initiale de plaques dotées de mouvements, une couverture initiale océanique
et continentale, le modèle calcule leur évolution et peut synthétiser automatiquement une
planète comportant des structures émergentes caractéristiques telles des dorsales océaniques,
des fosses, des plaines abyssales, et des formes continentales plausibles arborant linéarité
et symétrie des côtes, des arcs d’îles, ainsi que des distributions géologiquement cohérentes
de chaînes montagneuses. L’expérimentation montre que de telles planètes réalistes sont
obtenues au bout de quelques centaines d’itérations, soit en moyenne ≈ 250Ma.
L’utilisateur peut s’il le souhaite malgré tout intervenir. Il peut prescrire partiellement ou
complètement l’état planétaire initial. À titre d’exemple nous avons reproduit la Terre, avec ses 3
mouvements tectoniques actuels, et avons observé le rifting du continent africain et la collision
de l’Australie avec l’Asie (Figure 42). L’utilisateur peut également intervenir temporellement,
durant la simulation, pour prescrire des scénarios de contrôle (Figure 43, 44). À tout moment il
peut sélectionner des plaques, ajuster leur mouvement, les fragmenter (Figure 45) ou changer
directement les paramètres de la croûte.
Notre méthode ne reposant pas sur une physique précise, nous ne sommes pas en mesure de
prédire l’évolution d’une planète réelle telle la Terre, toutefois la méthode offre la possibilité de
contrôle et est suffisamment plausible pour envisager l’application intéressante de conception
de scénarios de fiction et d’effets spéciaux.
3.4.4 Limitations
3.4 R ÉSULTATS 73
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
ainsi envisager une extension de la méthode, orientée édition, où l’utilisateur pourrait peindre
à l’aide du dispositif de pointage, localement les caractéristiques de la croûte, notamment
l’élévation et le type de croûte.
Réalisme. Dans notre méthode les phénomènes tectoniques ne sont reproduits qu’au premier
ordre et de manière phénoménologique, en s’appuyant sur des heuristiques efficaces mais
simples. Toutefois l’approche reste plausible, ainsi que confirmée par M. Coltice. Dans ses
observations, il nous a fait parvenir une liste de limitations principales que nous examinons
ici.
Dans le monde réel, le rifting déchire progressivement la croûte au lieu de procéder par
fracture directe de la croûte continentale ; la cause principale étant la localisation des pôles
de rotation le long du rift 9 . Dans notre modèle nous nous appuyons sur une divergence
directe et franche des fragments de la plaque afin d’éviter des artefacts de collision entre
les sous-plaques initialement proches. La collision des sous-plaques par rotation les aurait
suturées et donc aurait annulé le processus de fragmentation. Notons que si nous souhaitions
nous montrer particulièrement réaliste, i.e. reproduire ce déchirement progressif de la plaque,
il faudrait un algorithme de suivi dédié particulier de la fragmentation et qui court-circuiterait
la détection de la convergence.
Pour des raisons similaires d’efficacité nous n’avons pas pris en compte les marges passives
et plus généralement les régions continentales immergées telles les plateaux continentaux.
Cependant il serait intéressant de les inclure dans le modèle, car jouant un rôle important
visuellement pour le réalisme final des planètes.
Enfin, nous n’avons pas inclus les Points Chauds (en anglais Hot Spots) dans notre modèle.
L’exemple canonique est la chaîne d’îles volcaniques hawaïenne, où un lieu fixe (par rapport
au mouvement des plaques) de la planète induit volcanisme et souvent génération linéaire
d’îles sur une plaque océanique. Ce phénomène pourrait être facilement intégré au modèle et
implémenté, comme des points fixes de production magmatique ; nous ne le proposons pas
toutefois car l’occurrence des points chauds est rare et l’impact visuel reste mineur à l’échelle
planétaire.
340 Ma
355 Ma
370 Ma
Figure 43 : Exemple de scénario d’accrétion d’un terrane sur un continent. À t = 330 Ma, la plaque
océanique à l’est converge vers la plaque continentale, et initie une subduction ; le sou-
lèvement induit l’émergence d’un arc d’îles. À t = 340 Ma l’arc est devenu une grand île,
orientée le long du front de subduction et de sa fosse. À t = 355 Ma l’utilisateur réoriente
le mouvement de la plaque océanique vers le nord-ouest, et la collision à t = 370 Ma
engendre l’accrétion complète de l’île sur le continent principal.
3.4 R ÉSULTATS 75
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
36 Ma 77 Ma 108 Ma
77
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
La méthode exposée au chapitre précédent permet de synthétiser les caractéristiques à
grande échelle de planètes – côtes et continents, chaînes montagneuses, groupes d’îles, relief
sous-marin – le tout par une recréation d’une dynamique tectonique. Dans les divers cadres
applicatifs retenus, pour mémoire simulations, applications ludiques ou encore effets spéciaux,
il est toutefois requis d’obtenir plus qu’une macro-représentation d’une planète : on souhaite
pouvoir explorer le modèle virtuel, depuis un point de vue orbital jusqu’au plus près de la
surface ; et la plupart des applications citées demandent la capacité de produire une telle
exploration détaillée en temps réel.
Nous proposons donc dans ce chapitre deux approches pour répondre à ce problème. Elles
viennent compléter la méthode tectonique précédente, et sont à même de produire des points
de vue détaillés et cohérents des planètes synthétisées. La première approche (Section 4.1)
repose sur une injection de modelés de terrain réels, par collage guidé et aléatoire. La seconde
(Section 4.2) souhaite dépasser la première approche et notamment produire des terrains
géomorphologiquement cohérents par génération d’un réseau hydrographique totalement
absent de celle-ci. La présence de cours d’eau, de rivières et de fleuves influence de manière
déterminante le relief continental par l’empreinte des lits et des vallées. Les deux méthodes
s’appuient sur les unités de calcul graphiques (GPU) pour être à même de s’exécuter en temps
4 réel, et ce de manière fortement couplée avec le pipeline de rendu graphique.
L’amplification consiste à générer à la volée les détails du relief planétaire. Il s’agit donc
d’une modélisation partielle, fortement couplée au pipeline de rendu temps-réel. Avant d’enta-
mer ce processus, toutefois, il est nécessaire d’effectuer un pré-traitement qui comporte : une
passe d’extraction d’informations depuis chaque carte de hauteur utilisée (section 4.1.1.1),
notamment l’angle de la direction principale des plis géologiques, puis une passe de construc-
tion de données basse-résolution de la planète (section 4.1.1.2). Ensuite et seulement ensuite
pouvons nous procéder au mélange des cartes de hauteur pour déterminer l’altitude de chaque
sommet du maillage raffiné final (section 4.1.1.3).
Figure 46 : Exemple de carte de hauteur brute issue du jeu de données SRTM90 (gauche), ici une
portion des Andes, et son traitement (droite) visant à détecter l’orientation des crêtes.
Dans cet exemple, l’élévation maximale est de 2253 mètres et l’angle des crêtes moyen est
calculé égal à 92.63 deg. 4
Les cartes de hauteur utilisées dans l’implémentation sont issues de la base de données
publique SRTM (Shuttle Radar Topography Mission) maintenue par le centre EROS de l’USGS
[USG]. Le sous-ensemble retenu est le SRTM Void Filled 3 arcsecs, c’est-à-dire le programme
couvrant 80% de la surface continentale terrestre, à précision 3 secondes d’arc (environ 90
mètres) et avec post-traitement comblant les zones de vide. Nous avons extrait de cette base
plusieurs ensembles de cartes, au format GeoTIFF : un pour représenter les zones de collisions
continentales, un autre pour les orogénies engendrées par subduction et un dernier pour tous
les massifs anciens et érodés. Chaque carte a fait l’objet d’un pré-traitement (figure 46) avant
de pouvoir être utilisée pour le rendu de la planète :
Pour finir, chaque carte est transcrite dans un format binaire susceptible d’être consommé
4 par l’application hôte. L’en-tête du fichier comporte les meta-données qui nous intéressent
pour pouvoir procéder à l’amplification planétaire : le type de terrain (himalayen, andéen,
ancien), la résolution et la précision de la carte, et l’angle moyen détecté des plis géologiques
(crêtes). Les élévations sont normalisées de telle sorte que l’élévation maximale de chaque
carte soit égale à 1.
Subdivisions
Récursives
1. Zone de montagnes
pi fi
fj p
fk
pj pk
4
Figure 48 : Représentation schématique du procédé de mélange des cartes de hauteur en tout point p
de la surface, pondéré barycentriquement. Les sommets pi , pj et pk sont trois sommets de
la TDS du modèle tectonique. Les cartes associées (en rouge, vert et bleu) sont orientées
au préalable selon la direction locale de plissement f tectonique. Nous nous assurons que
l’étendue de chaque carte couvre suffisamment chaque triangle du modèle. Par précaution
le texturing sur GPU est répété en miroir pour éviter des zones vides (i.e. en dehors de la
texture).
4
Relief océanique. Notons que ceci vaut pour les points continentaux du modèle tectonique.
Pour le relief océanique, la direction de plissement f est remplacée par la direction locale
parallèle à la dorsale océanique la plus proche r, et au lieu de procéder par placage de cartes
de hauteur nous reproduisons les fonds marins plus simplement de manière directement pro-
cédurale (fractale) : nous utilisons du bruit de gradient [Per85] pour la majorité de la surface
sous-marine, excepté près des dorsales où du bruit de Gabor [Lag+09] est employé pour
simuler les striations caractéristiques des dorsales (figure 50) dû aux failles transformantes
(orthogonales à la dorsale).
2. Les requêtes sur le modèle se doivent d’être rapides car cette étape se répète de nombreuses fois lors de
l’exploration continue de la planète
Figure 49 : Visualisation de la croûte C donnée en entrée, générée à grande échelle par la simulation
tectonique (gauche), et du relief détaillé T (droite) obtenu par l’amplification par collage
de cartes de hauteur réelles.
La méthode a été implémentée en C++ et testée sur un processeur Intel Core i7 − 6700 K
couplé à 16 Go de mémoire vide et une carte graphique Nvidia GTX 1080. La méthode
opère sur la sortie de la simulation tectonique présentée au chapitre 3. Sur cette machine le
programme offre une fréquence d’affichage variable, entre 37 et 145 Hz, selon l’altitude de
la caméra. L’océan est modélisé par son propre maillage, duplicata du maillage du terrain
(le raffinement adaptatif sert aux deux maillages) ; la surface de l’eau est animée à chaque
frame. L’atmosphère est rendue par raymarching pour reproduire la perspective aérienne et la
dispersion atmosphérique de la lumière (scattering).
Données. Les modelés utilisés dans l’implémentation sont issus de la mission SRTM90
répertoriée dans la base de données USGS. Ce sont des cartes de hauteur (DEM, Digital
Elevation Model) de régions de la Terre ; nous avons extrait 3 ensembles de cartes : 7 DEM
pour les zones Himalayennes, 11 pour les régions Andéennes et 6 pour les anciennes orogénies
(tirées de la région de l’Atlas marocain). Chaque DEM a une précision de 90m et une étendue
d’environ 108km.
4
Limitations. Même si le prototype remplit les objectifs principaux initialement fixés, à savoir
produire des images détaillées et cohérentes du modèle tectonique à grande échelle, il souffre
de nombreuses limitations, que nous relevons ici.
Premièrement, l’intervalle de temps entre deux mises à jour du terrain, c’est-à-dire le calcul
du maillage de rendu adaptatif déclenché par le déplacement de la caméra, n’apparaît pas
entièrement satisfaisant : la tesselation effectuée dans un thread CPU met plusieurs secondes
à être calculée, ce qui induit un changement brusque du terrain visible par l’utilisateur. Par
ailleurs, l’utilisation de cartes de hauteur limite fortement la précision au sol du terrain
amplifié (en l’état environ 90m). Augmenter drastiquement la précision des cartes de hauteur
utilisées n’est pas envisageable du fait de la quantité limitée de mémoire embarquée des GPU.
Une solution serait une deuxième passe d’amplification avec ajout de bruits procéduraux ;
mais cela ajouterait significativement au temps de calcul car il faudrait produire de la variété
en multipliant les combinaisons de bruits, sans compter qu’en sus, il faudrait interpoler
quadratiquement (au minimum) les DEM, au lieu de bilinéairement, pour masquer l’effet
d’escalier produit entre les texels d’élévation. Enfin, le collage de modelés, bien que donnant
l’illusion de réalisme du fait de l’injection de données de hauteur réelles, ne permet pas de
générer des terrains pleinement réalistes. En effet, ce qui caractérise les terrains sur Terre sont
surtout les cours d’eau et les vallées et ravines que l’eau sculpte dans le relief. L’hydrographie
est une composante essentielle du réalisme d’un terrain, et elle est complètement absente de
cette méthode.
Notre seconde méthode d’amplification, présentée dans la section suivante, permet de lever
ces deux dernières limitations (précision, réalisme), tout en améliorant la première concernant
la fréquence de rafraîchissement du maillage adaptatif (à peu près d’un ordre de grandeur).
L’objectif de la méthode est la production à la volée d’un modèle planétaire détaillé suscep-
tible d’être rendu en temps réel et continument explorable. Elle est, par contrainte, fortement
couplée au pipeline de rendu. Elle travaille donc directement sur une représentation com-
patible, c’est-à-dire triangulée. L’hyper-amplification se découpe en trois grandes phases. La
première phase est un calcul offline d’un modèle planétaire de travail, qu’on nommera modèle
basse-résolution L. La seconde phase a lieu online et est essentiellement un calcul massivement
parallèle, adaptatif, du maillage surfacique local ; il s’agit d’un procédé de subdivision par
règles. La troisième phase est également online, massivement parallèle, et consiste en un
post-traitement de la subdivision afin d’injecter des modelés spécifiques, par déplacement
vertical paramétré du maillage.
Génération du modèle basse résolution. Que ce soit à partir de cartes de contrôle, d’une
représentation fonctionnelle ou du modèle tectonique, nous commençons par construire en
amont le modèle basse résolution L (section 4.2.2) : une triangulation sphérique irrégulière
stockant les données de contrôle dans chacun de ses sommets {pi }. A minima il s’agit de
l’élévation moyenne de la croûte terrestre, et optionnellement de son âge géologique, de
l’humidité locale et/ou de la présence de modelés spécifiques. Le modèle basse résolution L
est en essence une structure de données géométrique qui maintient tous les paramètres de
contrôle requis pour ensuite procéder à l’amplification temps-réel locale de la planète. Un
des aspects forts de la méthode est sa capacité à produire une structuration hydrologique du
relief : L contiendra donc non seulement les informations de côtes et de présence montagneuse
mais aussi un réseau hydrographique à grande échelle complet, que nous construirons avant
d’entamer la subdivision temps-réel.
non développée dans cette thèse, est la possibilité théorique d’injection de terrains locaux,
sous forme de cartes de hauteurs spécifiées par l’utilisateur, afin de produire certains modelés
spécifiques.
a b c d e
Figure 52 : Étapes de pré-calcul : (a) entrée utilisateur, (b) échantillonnage par disques de Poisson,
résultant en un ensemble de sommets pi , (c) construction d’une triangulation de Delaunay
sphérique, (d) lissage des côtes, (e) génération du réseau hydrographique et calcul de ses
caractéristiques locales, telles l’index d’Horton-Strahler, le flot φi et l’élévation de l’eau.
Irrégularité. Notre objectif dans cette phase de pré-calcul est de produire une triangulation
4
de travail L, susceptible d’être ultérieurement raffinée, et marquée par une forte irrégularité.
Ce dernier point est d’importance, il est en effet préferrable d’éviter une structuration linéaire
du maillage, qui serait visible et gênante pour l’oeil, notamment pour la construction des
cours d’eaux principaux, des fleuves majeurs, où tout schéma régulier est à éviter sous peine
d’apparaître artificiel. Nos expériences ont montré que si nous partions d’un octaèdre ou
icosaèdre initial auquel nous appliquerions un schéma dyadique de subdivision, même avec
un fort jittering 3 des sommets nous n’obtiendrons pas de cours d’eau réalistes du fait de
motifs géométriques toujours clairement détectables par l’oeil. Nous procédons donc par
3. Pertubation appliquée aux positions
Paramètres de contrôle. L’échantillonnage des données fournies par l’utilisateur crée les
positions des sommets du maillage L. C’est aussi à cette étape que l’on évalue et stocke dans
ces sommets les paramètres de contrôle de l’hyper-amplification. L’élevation moyenne de la
croûte terrestre C ∈ [−104 , 104 ] définit les altitudes du relief basse résolution de la planète, et
circonscrit les continents, les océans, les plaines, les massifs et grandes zones montagneuses. À
mesure que la subdivision aura lieu, les élévations détaillées seront produites, contraintes par
C et caractériseront le relief final, local, de la planète. L’âge géologique A ∈ [0, 108 ] concerne
principalement les orogénies et permettra de distinguer entre jeunes et anciens massifs. Ce
paramètre joue un rôle important dans le choix des règles de subdivision, produisant des
monts arrondis et érodés pour les massifs anciens ou a contrario anguleux et hauts pour les
montagnes jeunes. L’humidité W ∈ [0, 1] est un paramètre normalisé, et peut être vu comme
une distribution d’indice de précipitation moyenne ; elle définit les zones arides ou humides et
contrôle la distribution des lacs ainsi que d’autres modelés spécifiques comme les mesas et les
terrasses dans les déserts rocheux. Enfin, la présence de plateaux et de collines, est déterminée
par les paramètres normalisés P ∈ [0, 1] et B ∈ [0, 1] respectivement.
Lissage des côtes et placement des estuaires. Cette étape survient après la construction du
maillage L, c’est-à-dire après les étapes a, b et c de la figure 52. Nous prenons soin de lisser
les côtes des continents afin de préparer la génération du réseau hydrographique tout en
garantissant l’absence d’artefact. Voici en détail les opérations consécutives mises en œuvre :
4 typés soit continent soit mer. Nous mémorisons dans une liste de travail tous les triangles
côtiers possédant exactement 2 sommets mer. Par la suite nous ne travaillerons que sur
ces triangles.
2. Lissage : pour chaque triangle de la liste, nous modifions les sommets mer en les élevant
à l’altitude de l’unique sommet continent du triangle, et en changeant leur type de mer à
côte.
3. Placement des estuaires : pour chaque triangle de la liste de travail, nous procédons à
des tests préalables, si un des tests échoue nous passons au triangle suivant. Le premier
test consiste à vérifier qu’aucun sommet rivière n’existe dans le triangle. Le second test
consiste à vérifier qu’aucun sommet rivière n’est atteignable par une arête incidente à un
des sommets du triangle. Enfin nous vérifions que le voisinage donne suffisamment sur
Génération du réseau hydrographique. Une fois les côtes lissées et les embouchures des
fleuves placées correctement, nous construisons le réseau hydrographique à la façon de
[Gén+13], par conquête et sous contraintes des paramètres de contrôle, notamment l’élévation
moyenne continentale.
En partant des estuaires, nous remontons vers les sources, arête par arête. L’itération
principale consiste à choisir un des cours d’eau et à lui ajouter un nouveau noeud primaire
ainsi que potentiellement un nouveau nœud secondaire, un noeud dit secondaire représentant
un cours d’eau tributaire et la création d’une jonction en "Y". Le choix du cours d’eau parmi
tous les cours d’eau en cours d’agrandissement est basé sur un système de priorités : dans
notre implémentation test, nous ne prenons en compte que l’altitude moyenne normalisée du
terrain, la priorité d’un cours d’eau étant plus élevée pour une altitude faible de plaine. Ceci
permet de bien couvrir les continents ; on se reportera à [Gén+13] pour une discussion sur
d’autres possibles stratégies de conquête. Chaque cours d’eau choisi est donc potentiellement
augmenté par 1 ou 2 nœuds. Un nœud candidat est choisi parmi les sommets adjacents d’après
un coût que nous cherchons à minimiser : pour un nœud primaire, l’angle du cours d’eau
doit être minime, il tendra à ne pas se situer dans une zone de plateau et une forte pente est
privilégiée, i.e. plus la différence d’altitude est forte plus le coût sera petit. Optionnellement,
pour le cas où un modèle tectonique est utilisé et où la direction de plissement de la croûte
4
terrestre est disponible, nous privilégions les cours d’eau orthogonaux à cette direction, afin de
marquer les vallées principales dans le bon sens. Notons que nous ajoutons une composante
aléatoire dans le coût calculé afin de ne pas systématiser artificiellement la génération du
réseau. Pour un nœud secondaire, donc marquant la création d’un cours d’eau tributaire, le
coût est calculé de manière similaire, excepté que l’angle de la jonction devra être inférieur à
90°. Le choix de créer un nœud secondaire est guidé par une probabilité, plus élevée à mesure
que le fleuve grandit.
Si aucun nœud candidat n’est trouvé, nous mettons fin à l’accroissement du fleuve courant
en créant sa source, ce qui consiste simplement à fixer l’élévation de l’eau égale à celle du
Une fois le réseau construit, prenant la forme d’une collection d’arbres (une forêt) portés
par un sous-ensemble des arêtes et des sommets du maillage, on le parcourt à nouveau
afin de calculer des informations importantes pour la suite de l’algorithme. En premier lieu
nous calculons l’index d’Horton-Strahler caractérisant l’importance schématique de chaque
tributaire [Hor45]. Dans un second temps nous déterminons le flot de chaque cours d’eau.
En remontant depuis les embouchures, et à partir de l’information de longueur depuis l’em-
bouchure jusqu’à chaque noeud visité, ainsi que la longueur maximale détectée sur toute la
planète des cours d’eau, nous assignons l’amplitude normalisée du flot en chaque noeud. Trois
cas se présentent pour un noeud donné : (1) aucune jonction n’est présente, et le flot est
préservé, (2) une jonction symétrique est présente, auquel cas le flot est divisé en deux, (3)
une jonction asymétrique est présente, auquel cas le flot est distribué de manière pondérée
par les index d’Horton-Strahler. Enfin, nous procédons au calcul final des élévations de l’eau.
Pour cela, nous parcourons le réseau en sens inverse depuis les sources, et affectons un offset
depuis l’élévation du lit de la rivière, calculé inversement proportionnellement à la longueur
du cours d’eau (du noeud courant à l’embouchure) rapportée à sa longueur totale (de la
source à l’embouchure).
a) b) tc c) tc d) tc
tc tac tac tac
tbc tbc tbc
ra ra ra ra
rb rb rb rb
rab rab rab
Figure 53 : Illustration des deux étapes de la subdivision : a) triangle de départ, b) subdivision dya-
dique et insertion de 3 nouveaux sommets, c) création des arêtes internes et instanciation
d’un cours d’eau tributaire, d) le processus se répète récursivement, à mesure que le niveau
de détail λ croît.
Le coeur du processus de subdivision se découpe en deux phases (Figure 53). Ces deux
phases sont séquencées et se répètent jusqu’à atteindre un niveau de détail λ satisfaisant
pour la vue courante. Premièrement, nous raffinons les triangles du modèle selon un schéma
dyadique, c’est-à-dire que nous insérons un nouveau sommet dans chaque arête nécessitant
d’être détaillée. Ce processus s’appuie sur des règles de production sémantiques d’éléments
du relief, il est contrôlé par les diverses configurations locales trouvées dans la triangulation.
La seconde phase implique la création de nouvelles arêtes et de nouvelles faces internes aux
triangles, ces nouvelles arêtes relient les sommets créés lors de la phase précédente. Dans
cette seconde phase, un autre ensemble de règles spécifique s’applique.
rb hb rb
rab
ra hab
ra
ha rab
Vue 3D Vue de profil
Figure 54 : Illustration de la règle R1, où une arête rivière est subdivisée et où un nouveau sommet
rivière apparaît. Le calcul de l’élévation du lit de la rivière ainsi que l’élévation de l’eau au
nouveau sommet se doit de respecter le flot de la rivière.
Subdivision d’arêtes. Le schéma dyadique subdivise une arête donnée en deux nouvelles
arêtes et ajoute un sommet à la triangulation. Une configuration locale d’entrée, composée
d’un triplet (ua , Uab , ub ), déclenche une règle spécifique.
hmax
hab tab
ra
4 tab rb
hmin
ha
ra rb
Vue 3D Vue de profil
Figure 55 : Illustration de la règle R2, où une crête apparaît entre deux vallées. La nouvelle élévation
se doit d’être supérieure aux altitudes des deux rivières.
R1 transforme une arête rivière en deux sections de rivière (Figure 54), R2 sert à créer des
crêtes entre rivières (Figure 55), et R3 crée un sommet terrain le long de la pente incidente
à une rivière (Figure 56). Les règles R4a et R4b servent à accroître la densité du réseau
hmax
tb tb
hab tab
tab
hmin
ra ha
ra
Vue 3D Vue de profil
Figure 56 : Illustration de la règle R3, où un sommet de type terrain apparaît le long de la pente
incidente à une rivière.
Subdivision des faces. La subdivision des faces constitue la seconde phase du schéma de
subdivision. Trois nouvelles arêtes internes (Figure 57) sont créées et insérées dans chaque
triangle dont les arêtes ont été subdivisées, elles relient les trois nouveaux sommets obtenus
lors de la phase précédente. Un ensemble de règles spécifiques s’appliquent afin de déterminer
le type inconnu Uxy des nouvelles arêtes :
ra ra ra
4
rab tac rab tac rab tac
Figure 57 : Arêtes internes : nous subdivisons le triangle par l’ajout de 3 arêtes reliant les 3 nouveaux
sommets créés lors de la première phase de subdivision. Le type de l’arête est obtenu après
application de règles spécifiques aux arêtes internes. En bleu, les sommets et arêtes de
type rivière, en gris le type terrain. Les 3 arêtes internes s’ajoutent aux 6 nouvelles arêtes
introduits par les 3 nouveaux sommets, et en tout 4 faces nouvelles et internes au triangle
sont créées.
Sommets
Pics Pics
Jeunes
anciens anciens Collines multiplication
pics
Terrain basique arides humides
HumiditéW, LOD λ
Monts Monts
Monts Terrasse- Distance à la rivière dr
anciens anciens mélange mélange mélange
jeunes ment Collines
arides humides
HumiditéW Âge A LOD λ
+ mélange
mélange mélange mélange
Plateau P
Humidité W Âge A HumiditéW, âge A,
Élévation
LOD λ, élévation h Finale
Figure 58 : Graphe de calcul pour le cas (t, T , t) où une arête terrain relie deux sommets terrain.
4
Graphes de calcul. Pour assurer la continuité du modèle tout en contrôlant les caractéristiques
du terrain produit, nous combinons en ensemble de nœuds procéduraux dans un graphe,
nommé graphe de calcul, opérant sur le domaine continu des paramètres attachés aux som-
mets. Chaque nœud de génération procédurale accepte en entrée les paramètres des deux
sommets de l’arête ciblée, et définit des caractéristiques spécifiques du relief, telles que les
montagnes, les collines ou encore les plateaux. Des graphes de calcul spécifiques sont exécutés,
dépendant de la configuration locale et donc de la règle de production spécifique qui a été
déclenchée. La figure 58 montre le graphe appliqué à la configuration (t, T , t), la figure 61
à la configuration (r, T , r), et la figure 59 au cas (r, T , t). Ce sont les configurations les plus
Élévation Élévation
Nombres pseudo-
de la du
aléatoires : [0, 1]
Rivière Terrain
Élévation
1 – x3 mélange mélange
Finale
Plateau P
Voici le détail des calculs produits par les nœuds procéduraux du graphe présenté sur
la figure 58, pour le cas (ta , Tab , tb ). Dans ce qui suit ξ ∈ [0, 1] désigne un nombre pseudo-
aléatoire, généré à partir de la graine attachée au nouveau sommet. Sans perte de généralité
nous considérons les sommets parents ta et tb ayant des élévations minimale et maximale
ha < hb respectivement. Soit ∆ la dépendance sur l’échelle, λ étant le niveau de détail courant,
un entier avec λ = 0 pour le modèle basse-résolution L :
2k λ, si λ < 10
10
∆=1− , k=
5 1, sinon
Montagne classique. L’élévation h est obtenue par interpolation fractale entre les deux
élévations ha et hb . 4
h = (1 − α)ha + αhb
Ancien aride α = 12 + 2∆
5 (ξ − 1)
3∆
Ancien humide α = 1 + 5 (ξ − 1)
Jeune α = 21 + ∆ γ
2 (ξ − 1)
Pics. Les élévations des pics sont déterminées à partir de l’élévation moyenne de la croûte C :
hi hi − T
h = T + β 2 (3 − 2β)τ avec T =b cτ, β=
τ τ
τ représente la hauteur des terrasses, qui peut être modulée elle-même par d’autres nœuds
procéduraux, bien que dans notre implémentation test nous n’avons utilisé qu’une simple
constante de 700 mètres. Le facteur de l’interpolation d’Hermite β est contraint entre [0, 1].
||ta − tb || est la longueur de l’arête courante, Hmax est une constante indiquant dans notre
implémentation la hauteur maximale des collines (800 m), et χ est un nombre pseudo-aléatoire
uniformément distribué entre [0, 1].
4
Figure 60 : Décalage horizontal appliqué potentiellement à chaque nouveau sommet, au sein d’une
zone définie en coordonnées barycentriques qui garantit le non-croisement du maillage.
Élévation
max + min échelle min multiplication max
Finale
Élévation basique Élévation des sommets
Figure 61 : Graphe de calcul de l’élévation pour le cas où deux sommets rivière sont connectés par
une arête terrain (r, T , r).
Ravines. Les ravines donnent sur les rivières et forment un réseau hiérarchisé de rigoles de
drainage sèches. Elles ajoutent au réalisme en creusant plus avant le terrain par un certain
nombre de sillons. Dans la subdivision, les ravines sont définies par les sommets et arêtes typés
g, similaires aux rivières et sont créées à partir de règles de production similaires aux règles
R1, R2 et R3. Dans la phase de création des arêtes et faces internes aux triangles, lorsque la
condition β n’est pas satisfaite et que donc l’instanciation d’une rivière tributaire échoue, nous
instancions à la place potentiellement une ravine tributaire.
Lacs. L’hyper-amplification que nous proposons permet de générer des étendues d’eau
non endoréiques, c’est-à-dire non isolées et connectées localement au réseau des fleuves et
rivières.
Sur Terre la grande majorité des lacs est de telle nature. Dans le modèle, les lacs (Figure 62) 4
sont formés par extension du lit des rivières, en s’appuyant fortement sur la seconde phase
de l’hyper-amplification d’injection de modelés et de prescription de sections transverses aux
rivières (Section 4.2.4). La règle de production R3 est modifiée dans le but spécifique de
générer des lacs en remplaçant le sommet terrain en un sommet lac. Ceci s’opère aléatoirement
d’après une probabilité calculée à partir de l’humidité locale W(p). Le sommet lac vient étendre
le lit de rivière, en assignant zéro au paramètre dr qui représente la distance à la rivière la plus
proche. Ce paramètre joue un rôle prépondérant dans la prescription des sections transverses
et en procédant de la sorte on garantira l’étendue du lac ainsi que les pentes de terrain qui y
mènent. Des calculs spécifiques d’élévation de l’eau sont déclenchés pour les lacs dans le but
de garantir localement la planéité de l’eau sur toute l’étendue du lac (Figure 63).
Figure 62 : Notre méthode permet la génération de lacs : l’image de gauche montre un terrain
référence produit par l’algorithme d’hyper-amplification brut, tandis que l’image de droite
montre la même région augmentée de lacs.
Surface du lac
plane
Figure 63 : Les lacs apparaissent comme des extensions des rivières. Un calcul dédié de l’élévation de
l’eau permet de garantir la planéité des lacs.
Une fois la subdivision complète, c’est-à-dire lorsque la triangulation a été suffisamment dé-
taillée localement, nous procédons à une seconde phase d’amplification : le but est de produire
des modelés hydrographiques réalistes, conformes aux archétypes décrits en géomorphologie
4 (Figure 64).
Les caractéristiques de la section transverse d’une vallée, pente locale et largeur, sont
calculées à partir d’une estimation du flot hydrique local ||φ||, stocké en chaque sommet de la
triangulation et transmis par la subdivision. Nous utilisons une loi de puissance [Arg+19] pour
la relation entre la valeur du flot et la forme de la vallée, un drainage fort, par exemple celui
d’un grand fleuve, induisant moins de pente et une vallée plus large. Nous appliquons une
interpolation d’Hermite cubique pour inscrire de manière lisse, sans discontinuités artificielles
aux frontières, le profil résultant dans le terrain brut produit par la subdivision (Figure 65).
Mélange final
Subdivision pure
Distance de mélange
Distance transversale
La section transverse de la vallée est interpolée, à partir de l’index er , sur N profils géné-
riques, des courbes unidimensionnelles représentant des élévations de vallées normalisées.
Des archétypes de sections transverses ont été proposés pour différents types de vallées en
géomorphologie et ont été utilisés avec succès pour sculpter des terrains [Arg+19]. Notre im-
plémentation s’appuie sur des modèles paramétriques génériques aisément stockés et évalués
sur cartes graphiques. Des sections transverses réelles, issues de données terrestres, pourraient
être utilisées à la place, pour plus de réalisme : la difficulté viendrait uniquement de la capacité
à extraire ces sections de DEM, et de l’accroissement du coût mémoire de la méthode.
Un aspect clé de notre méthode d’hyper-amplification est qu’elle a été pensée pour être
massivement parallélisée. Aussi, et afin de permettre l’exploration temps réel des planètes,
nous proposons une implémentation intégralement GPU de la méthode. La figure 66 expose
le pipeline de modélisation temps-réel, et son couplage avec le pipeline de rendu.
Injection
Marquage Correction
Division des des Profils /
Hyper-Amplification Initialisation Division des des Division des des Calcul des
Arêtes- Création
(toutes les N frames) Mémoire Arêtes Sommets- Faces Sommets- Normales
Fantômes Sommets-
Fantômes Fantômes
Eau
Figure 66 : Aperçu des opérations GPU : (orange) compute shaders, (bleu) passes graphiques.
4 non divisées appartenant à des faces qui elles nécessitent d’être divisées (i.e. des triangles
possédant au moins une arête divisée). Ces quatre traitements représentent un unique niveau
de subdivision : ils sont donc répétés jusqu’à ce qu’aucune arête ne reste à diviser pour
atteindre le niveau de détail cible de la géométrie.
Une fois cette séquence achevée, nous procédons à l’injection des modelés hydrographiques
(Section 4.2.4) pour la création des lits de rivière et des vallées attenantes. Ce processus est
suivi de la création en masse, de manière parallèle, des sommets représentant la géométrie de
l’eau (rivières, lacs, océans) pour chaque sommet terrain où l’élévation de l’eau est supérieure
à celui-ci hw > h. Les sommets représentant l’eau sont ensuite connectés entre eux en
dupliquant la topologie du terrain sous-jacent. La phase de modélisation s’achève avec le
re-positionnement des sommets fantômes affectés par la prescription des sections transverses,
Haute précision. Le rendu de planètes sur GPU pose problème en raison de la précision
limitée des flottants (32 bits). Le problème de l’échelle est connu et nous utilisons la solution
du log-z depth buffering [CR11] pour le calcul des profondeurs sans artefacts. Nous utilisons
également des flottants double précision partout où cela est possible. Bien que cela soit le cas
dans les traitements GPGPU des compute shaders, tant qu’on se cantonne à OpenGL, les passes
graphiques elles sont limitées à 32 bits dans le pipeline pour l’interpolation des paramètres sur
les primitives. Notons que l’usage de flottants double-précision est obligatoire dans le contexte
du rendu de planètes virtuelles à l’échelle 1/1 : plus de 7 chiffres sont en effet requis pour
représenter une position donnée à la précision du centimètre 4 . Nous utilisons des matrices de
4
projection et des positions représentées en double-précision, cependant, du fait de la limitation
matérielle évoquée plus haut, nous sommes obligés de trouver une parade pour passer du
vertex shader au fragment shader. Nous proposons d’interpoler et de stocker en 32 bits dans le
buffer de géométrie la distance du fragment courant à la caméra, puis dans le fragment shader
de le convertir en double-précision et de reconstruire la position dans le repère monde d’après
la matrice double-précision inversée de projection-vue. Ceci permet le texturage tri-planaire,
à partir d’une interpolation bi-linéaire en double-précision sur les coordonnées monde et
écrite à la main dans le shader (celle proposée nativement est en 32 bits au mieux). Dans
4.2.6 Résultats
Figure 67 : Instance d’hyper-amplification réalisée à partir d’une représentation de la Terre par cartes
de contrôle, présentant un zoom progressif sur le continent sud-américain.
Performance. Le prototype développé par nos soins a été testé sur un Intel i7-6700K cadencé
à 4.0 GHz, couplé à une carte graphique NVIDIA GTX 1080Ti. Les planètes que nous présentons
ont approximativement la taille de la Terre, i.e. un rayon de 6370km, la modélisation se fait à
l’échelle 1/1 et nous atteignons une résolution en surface de 50 cm au plus haut niveau de
détail. La fréquence de calcul et d’affichage du rendu temps-réel est approximativement de 25
Hz pour les cas critiques de vues basse altitude avec calculs intensifs pour l’illumination et
l’animation de l’eau, les effets atmosphériques et le texturage double-précision du terrain.
Une instance de modélisation de la surface planétaire, réalisée toutes les 10 frames de rendu,
4 incluant subdivision, injection de profils et post-traitements, prend en moyenne 80 ms. Mais
cette mesure varie fortement selon que la caméra est plus ou moins proche du terrain, avec des
cas critiques pointant au-dessus de 100 ms lorsqu’on s’approche du centimètre de résolution
et que le compte des triangles terrain atteint 4 millions. Une instance d’hyper-amplification
typique peut cependant être évaluée et détaillée de la façon suivante : la subdivision prend
≈ 50 ms (44% étant pris par la division des arêtes, 15% par les opérations dites « fantômes » et
41% par la division des faces), la prescription des lits de rivière et des vallées représente à peine
3 ms, enfin les post-traitements combinés prennent ≈ 30 ms. Le coût de l’hyper-amplification
est amorti cependant sur les 10 frames de rendu, le GPU étant libre de planifier les compute
jobs au milieu des passes graphiques, ce qui permet en pratique de maintenir l’exploration
temps-réel sans à-coup.
Figure 68 : La méthode permet la génération et le contrôle d’une vaste variété de terrains, tels rivières
et lacs (W), collines (B), massifs anciens et jeunes (A) et plateaux (P).
4
La figure 68 montre la variété des terrains générés par notre modèle. Les lacs sont géné-
ralement produits dans les régions où une grande humidité W règne. Les plateaux et les
collines apparaissent là où les les paramètres de contrôle P et respectivement B dominent. La
continuité des terrains générés est garantie par l’interpolation des paramètres dans le domaine
spatial et la combinaison lisse des élévations dans les graphes de calcul. La forme finale des
montagnes est influencée par l’âge géologique des orogénies A, qui donne des pentes plus
douces et érodées pour les vieux massifs. Le paramètre humidité joue aussi un rôle important
dans la forme détaillée et le rendu des terrains tel que le montre la figure 69. Enfin, ravines et
Pour finir, nous n’avons pas entrepris de tester le potentiel en terme d’édition et de concep-
tion de notre système ; mais, à en juger par la bonne performance de la méthode sur machine
grand public, une telle approche serait réalisable. On peut librement imaginer la manipulation
et l’édition des cartes de contrôle en peignant directement avec un dispositif de pointage sur
la planète. Dans notre prototype une demi-seconde est nécessaire pour régénérer le modèle
basse résolution L comprenant le réseau hydrographique de base, alors que la subdivision et le
rendu sont quasi-instantanés. Ceci est suffisant pour imaginer un retour interactif permettant
des sessions d’édition fluides.
Figure 69 : Influence du paramètre humidité W donnant des paysages différents : (gauche) présence
d’eau, pentes du terrain douces en basse altitude, (droite) décalage horizontal marqué
suggérant l’érosion éolienne, lits de rivière asséchés et effet de terrassement sur les pentes
rocheuses.
Figure 70 : Comparaison entre un terrain généré près d’une arête rivière avec sa région de profil
transverse (en vert), sans (gauche) et avec (droite) présence de ravines.
Limitations. Notre méthode est coûteuse en mémoire vidéo, elle requiert plus de 2Go
sur la carte graphique. L’algorithme de subdivision s’appuie sur de nombreux paramètres,
auxquels il faut ajouter les données de topologie classiques du maillage triangulé. En tout,
32 octets sont utilisés pour stocker une arête, 32 octets pour un triangle, 48 octets pour
représenter la topologie d’un sommet et 112 octets pour stocker ses paramètres. L’usage
de flottants en double-précision pour les positions a un impact également important. Les
tableaux de sommets et d’autres buffers spécifiques au rendu accroissent significativement le
total de mémoire requise par le prototype. Ce dernier pourrait être optimisé, en compactant
efficacement, sur champs de bits, quelques uns des paramètres de contrôle comme W ou P.
Bien que notre méthode soit efficace et capable de générer des modèles réalistes, elle souffre
de la présence d’artefacts visuels indésirables au rendu de la géométrie. Cela se voit surtout
sur les hauteurs enneigées, car le rendu de la neige dépend fortement de la pente (normale)
en chaque sommet, qui varie d’une subdivision à l’autre toutes les ≈ 10 frames. Cela pourrait
toutefois être tempéré par l’usage d’une technique d’antialiasing temporel de l’art, ou par
4
l’introduction d’un morphing progressif de la géométrie entre deux instances de subdivision
consécutives.
Hyper-amplification
Figure 71 : Notre méthode intègre des caractéristiques du relief telles que rivières, vallées, lacs,
plateaux, qui apparaissent au final plus naturel que les modèles générés par des techniques
de subdivision classiques.
Tout au long de cette thèse, nous avons cherché à aborder la modélisation de terrains
à l’échelle maximale, c’est-à-dire couvrant des planètes complètes, selon un axe opposé à
l’approche orientée out-of-core streaming. Pour rappel, une telle approche est celle appliquée
dans Google Earth par exemple, où l’application ne s’occupe que de transférer par le réseau et
de présenter à l’utilisateur uniquement des données statiques, i.e. précalculées et stockées.
Ne pas avoir recours à cette approche, c’est essentiellement ne pas procéder au stockage du
modèle haute-résolution, ce qui nécessiterait, pour une planète semblable en taille à la Terre,
plusieurs dizaines de pétaoctets de mémoire, du fait d’une surface à générer de plusieurs
centaines de millions de kilomètres carrés. Ce choix discrimine très fortement le panel des
méthodes de l’état de l’art susceptibles d’être employées pour la modélisation. En effet, si l’on
disposait d’une telle quantité de mémoire alors le plus simple et direct serait de pré-calculer
l’entièreté du modèle synthétique en appliquant de bonnes méthodes adaptées de l’état de
l’art, par exemple [Cor+18] pour générer par simulation des chaînes de montagnes travaillées
par l’érosion fluviale, ou [Gén+13] pour inscrire des réseaux hydrographiques convaincants
de manière procédurale, ou encore et si l’on veut être un peu plus rapide s’orienter vers
la synthèse à partir d’exemples avec l’utilisation de réseaux neuronaux générateurs comme
dans [Gué+17]. Toutes ces approches seraient parfaitement valides, et même susceptibles de
générer des planètes localement fortement réalistes. Cependant, seuls des centres de calcul
dédiés jouxtés à plusieurs milliers de serveurs de stockage seraient capables de synthétiser et
de mémoriser de tels modèles.
Mais, même en faisant l’hypothèse que de telles ressources matérielles soient disponibles,
il demeure un aspect de modélisation non-élucidé et qui concerne, explicitement, l’échelle
macroscopique des planètes telluriques. Les méthodes de la littérature que l’on vient d’évoquer
conviennent bien pour les échelles situées en-deçà du macroscopique, mais rien n’a été proposé
jusqu’ici pour synthétiser les grandes structures planétaires que sont les continents et leurs
côtes, les distributions d’îles et d’arcs d’îles, la forme des chaînes montagneuses, ainsi que les
grandes formations sous-marines telles les dorsales ou les fosses – en un mot, tout ce qui est
visible depuis l’espace. C’est donc notre première contribution : une méthode (chapitre 3)
à même de générer automatiquement ces structures de manière convaincante, grâce à une
prise en compte des réalités décrites par la théorie de la Tectonique des Plaques. C’est donc
une approche physique, recréant les conditions principales donnant lieu aux mouvements de
plaques et aux interactions situées en bordure de celles-ci génératrices de relief caractéristique, 5
en convergence comme en divergence. La méthode offre des capacités de contrôle à l’utilisateur
107
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
intéressantes pour une simulation, grâce à une implémentation s’exécutant en temps interactif :
divers scénarios de mouvements de plaques peuvent être librement façonnés pour répondre à
des besoins créatifs précis. En résumé, que l’on soit dans une approche de streaming out-of-
core ou pas, cet aspect demeurait jusqu’alors non étudié, et notre méthode est une première
solution, un premier pas intéressant pour prendre en compte cette échelle particulière.
Reste le problème cependant des vastes dimensions des planètes lorsque l’on souhaite
proposer leur exploration continue et jusqu’au plus près de celles-ci. Si l’on ne dispose pas de
centres de calcul dédiés ni de centres de stockage comme ce fut le cas dans cette thèse, on
ne peut pas s’appuyer sur l’approche out-of-core, se posent dès lors des problèmes majeurs
pour générer les modèles car entrent en scène tous les verrous relatifs au multi-échelle et au
multi-modal. Ceci nous a forcé à prendre des chemins de traverse, de trouver une parade, une
approche alternative susceptible d’être adaptable à des ressources matérielles limitées. Notre
proposition est de prendre le même parti pris pour la modélisation que celui que l’on trouve
classiquement dans le domaine du rendu : la génération de modèles adaptatifs. C’est-à-dire,
ne calculer idéalement que ce qui est strictement visible depuis un certain point de vue caméra,
donc ne générer que des modèles partiels. De manière similaire au rendu, du fait des angles
rasants typiques de l’observation de terrains, cela signifie être capable de générer des modèles
fragmentaires qui soient multi-échelles, i.e. avec haut niveau de détail pour les éléments près
de la caméra et des versions moins raffinées pour les éléments du paysage lointain. Partant du
modèle à grande-échelle produit par la méthode tectonique, nous proposons d’amplifier le
terrain afin de produire les détails locaux de la planète. Cette amplification permet de passer
de manière continue de l’échelle macroscopique à l’échelle mésoscopique ; par construction,
elle est circonscrite au point de vue courant de la caméra et la synthèse se fait à la volée. Le
chapitre 4 offre deux telles solutions. La première (section 4.1) est similaire en essence à ce
qui a été proposé dans l’industrie, comme la solution du studio CIG (développeur du jeu vidéo
Star Citizen), elle procède par collage de cartes de hauteur sur la surface planétaire, cependant
de manière guidée par les paramètres de la croûte produite par le modèle tectonique. Nous
prenons en compte notamment l’âge géologique du relief pour produire des monts anciens et
des jeunes montagnes, et la direction de plissement afin d’orienter localement les crêtes selon
le sens de convergence des plaques tectoniques. Cette méthode possède ses limitations : en
termes de précision du terrain final, l’usage de cartes de hauteur ne permet pas de descendre
en dessous de plusieurs dizaines de mètres (notons que le studio CIG modélise ses planètes
à l’échelle 1/10 ce qui lui permet de s’affranchir de ce problème, alors que nous travaillons
à l’échelle 1/1) ; en termes de performance le thread CPU en charge de la tesselation et des
requêtes sur le modèle tectonique est lent et cause des changements brutaux de topographie
très visibles quand la caméra se déplace ; enfin en termes de réalisme l’usage de cartes de
hauteur mélangées aléatoirement prévient la prescription d’une hydrographie, ce qui apparaît
fortement problématique, l’hydrographie étant un élément quasi-central et structurant des
paysages. Pour pallier à ces trois limitations nous proposons une seconde méthode, baptisée
5 hyper-amplification (section 4.2). Elle s’inspire de la méthode de Derzapf et al. [Der+11] car
elle instancie un réseau hydrographique de base (i.e. des grands fleuves) sur un maillage à
Limitations et perspectives
Malgré les contributions que nous venons de résumer, il reste toutefois nombre d’éléments
d’importance qui peuvent être améliorés ou qui n’ont pas été traités.
Le modèle tectonique tout d’abord, présente des défauts sur le plan du réalisme effectif qui
ont été remarqués par l’expert en tectonophysique que nous avons consulté. Notre modèle
produit trop d’obductions car nous ne modélisons pas les subductions inverses qui devraient
se dérouler en lieu et place de l’engloutissement (impossible) de grandes masses continentales.
Cela se produit car notre modèle, bien qu’inspiré de la géophysique, est loin d’atteindre une
quelconque forme de justesse physique. Or, il faudrait pour cela prendre en compte la convec-
tion du manteau, et réaliser une pleine simulation 3D pour reproduire l’effet de surface que 5
sont les plaques tectoniques – mais, nous l’avons dit, cela nous éloignerait catégoriquement
109
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
d’une simulation interactive permettant l’intervention de l’utilisateur. Peut-être qu’une solution
intermédiaire serait possible, une simplification drastique d’une tectonophysique, compatible
avec les objectifs propres à l’informatique graphique ; cependant nous pensons que cela ne
pourra pas se faire avant que les géophysiciens ne parviennent à un bon niveau de connais-
sance des phénomènes profonds du manteau, i.e. que les simulations de tectonophysique
n’atteignent des résultats vérifiés convaincants. Au-delà de la tectonique, nous voulons aussi
faire remarquer que notre méthode est circonscrite par elle et nous posons donc la question
suivante : comment prendre en compte, modéliser, les géologies particulières des exo-planètes
ne figurant pas de tectonique des plaques, alors que nous ne les connaissons qu’à peine ? Le
problème demeure complètement ouvert.
Ces limitations et ces problèmes spécifiques sont relatifs au réalisme et à l’efficacité de notre
méthode. Pour adopter cependant une perspective plus large, il reste des verrous importants à
lever avant d’envisager des solutions satisfaisantes au problème général de la modélisation
multi-modale de planètes. Par le terme « multi-modal » nous faisons référence aux divers
5 constituants des paysages qui doivent être modélisés de manière combinée afin de produire
des mondes convaincants. Ces éléments constitutifs comprennent :
L’atmosphère. Sur toutes les images de résultat présentées dans ce manuscrit on peut
remarquer l’absence évidente de nuages. Or, les nuages constituent un aspect des paysages
particulièrement important, pour la qualité dramatique qu’ils apportent du fait du jeu de
la lumière qui s’y disperse. La modélisation et le rendu de nuages sont des domaines de
recherche à part entière, qui ont fait historiquement l’objet au moins d’autant d’efforts que les
terrains. Nous ne développerons pas plus, mais le message essentiel est qu’au contraire des
terrains qui sont des surfaces, les nuages présentent un ordre de difficulté supplémentaire par
leur aspect volumique – et notamment pour le rendu temps-réel, presque impossible sur de
grandes étendues (a fortiori planétaires, ce qui n’a jamais été fait). Outre la difficulté de rendu,
il faut compter de plus sur la difficulté de modélisation et d’animation. Il faut en effet, pour
obtenir une distribution dynamique réaliste de nuages, un modèle climatique/météorologique.
Rappelons qu’à l’instar des modèles tectonophysiques, les modèles climatiques sont parmi les
simulations les plus complexes jamais développées par l’homme, et requièrent de ce fait des 5
ressources de calcul et de stockage considérables.
111
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
La végétation. La simulation du climat peut de manière intéressante permettre la définition
des biomes d’une planète, c’est-à-dire les divers climats locaux et donc la végétation associée.
Le problème ici, déjà étudié sur des terrains planaires d’étendue limitée, consiste à déterminer
à la volée la distribution des plantes sur le paysage d’après les informations climatiques et
hydrographiques. Et, outre le problème de la modélisation encore une fois s’ajoute celui du
rendu multi-échelle : i.e. comment passer de manière continue d’une vue proche, d’un bosquet
d’arbres par exemple, à celle d’une forêt entière, de la taille de l’Amazonie lorsque la caméra
se situe à des dizaines de kilomètres d’altitude ?
Terrain, nuages, climat, biomes et végétation, ne sont que les éléments naturels composant
les paysages, pourtant ils posent déjà de grands verrous qui restent à lever. Mais demeure en
sus tout le reste, c’est-à-dire tout ce qu’on peut imaginer dans les divers scénarios applicatifs :
routes, véhicules, personnages, créatures, bâtiments, y compris des villes entières. Toutes
sortes de problèmes encore une fois déjà étudiés dans les contextes de terrains planaires
limités, mais posant de sérieux problèmes lorsque l’on souhaite générer à la volée des modèles
partiels de grande étendue et figurant de multiples échelles pour un même point de vue
caméra. Au regard de tous ces problèmes, nous pensons que la génération procédurale a
de beaux jours devant elle, car elle seule pour l’instant démontre les bonnes performances
nécessaires à la modélisation à la volée. Toute la question à notre sens est de savoir comment
pré-structurer la modélisation afin que la génération procédurale soit enrichie et guidée au
moment de son évaluation (i.e. lors de l’amplification) afin qu’elle produise plus de variété, de
réalisme, de détails.
Enfin, nous conclurons en pointant vers un autre horizon, qui se situe bien au-delà d’une
simple planète prise isolément. Même si, pour toutes les raisons évoquées en introduction de
ce manuscrit, et qui touchent aux fondamentaux de l’être humain, la possibilité d’explorer
des planètes virtuelles devrait connaître un engouement croissant de la part du public, nous
irions plus loin et dirions que le public devrait être demandeur d’horizons bien plus vastes.
Ainsi, dans [Bru20] Eric Bruneton propose un modèle de rendu temps-réel de singularités
gravitationnelles hautement réalistes avec effets relativistes de distorsion de la lumière : nous
pensons que l’auteur partage avec nous l’intuition que ce sont vers les étoiles qu’il faut se
tourner. Le jeu vidéo Star Citizen est toujours très populaire malgré les retards incessants
pris dans son développement. Sa force, qui rejoint celle de la filmographie de George Lucas
avec la « Guerre des Étoiles », est de proposer à tout un chacun d’arpenter les étoiles, de
s’immerger dans une représentation vivante du cosmos. L’univers est source d’émerveillement,
nous aurions tort de l’oublier. Les étoiles ont toujours fait rêver l’humanité et aujourd’hui, alors
qu’elles ont disparu des cieux urbains, elles vivent en force dans les univers virtuels. Le défi ici
concernera donc la modélisation et le rendu détaillé de tous les phénomènes astronomiques
(figure 73) : nébuleuses, clusters d’étoiles, supernovas, galaxies, quasars, systèmes stellaires
avec leur cohorte de planètes, etc. Comment les futures générations de chercheurs aborderont-
5 elles le problème ? Difficile à dire, car tout dépendra de l’évolution du matériel informatique.
Peut-être la révolution quantique changera-t-elle la donne ? En tout cas pour l’heure, seule la
Figure 73 : A gauche, image de référence de la galaxie spirale M51, à droite résultat de la méthode
d’un étudiant de Fabrice Neyret et al. [BN18] reproduisant cette même galaxie par une com-
binaison de bruits procéduraux mappés sur une spirale logarithmique. (Source : [BN18])
Plutôt que de maudire les ténèbres, tu peux allumer une petite lumière.
— Proverbe Indien
Publications :
• Yann Cortial, Adrien Peytavie, Éric Galin et Éric Guérin. « Real-time hyper-amplification
of planets ». In : The Visual Computer (CGI’2020). [Cor+20].
• Yann Cortial, Adrien Peytavie, Eric Galin et Eric Guérin. « Procedural tectonic planets ».
In : Computer Graphics Forum (Eurographics’2019). [Cor+19].
• Adrien Peytavie, Thibault Dupont, Eric Guérin, Yann Cortial, Benes Benes, James Gain
et Eric Galin. « Procedural riverscapes ». In : Computer Graphics Forum. [Pey+19].
• Antoine Webanck, Yann Cortial, Eric Guérin et Eric Galin. « Procedural cloudscapes ». In :
Computer Graphics Forum (Eurographics’2018). [Web+18].
• Yann Cortial, Antoine Webanck, Eric Guérin, Adrien Peytavie et Eric Galin. « Modélisation
procédurale de nuages multigenre ». In : Journées Françaises d’Informatique Graphique
(jFIG’2017). [Cor+17b].
113
[ASA07] Nguyen Hoang A NH, Alexei S OURIN et Parimal A SWANI. “Physically based hydraulic erosion
simulation on graphics processing unit”. In : Proceedings of the 5th international conference
on Computer graphics and interactive techniques in Australia and Southeast Asia. ACM. 2007,
p. 257-264 (cf. p. 16).
[Arg+17] Oscar A RGUDO, Carlos A NDUJAR, Antonio C HICA, Eric G UÉRIN, Julie D IGNE, Adrien P EYTAVIE
et Eric G ALIN. “Coherent multi-layer landscape synthesis”. In : The Visual Computer 33.6-8
(2017), p. 1005-1015 (cf. p. 29, 31).
[ACA18] Oscar A RGUDO, Antoni C HICA et Carlos A NDUJAR. “Terrain Super-resolution through Aerial
Imagery and Fully Convolutional Networks”. In : Computer Graphics Forum. T. 37. 2. Wiley
Online Library. 2018, p. 101-110 (cf. p. 30, 31).
[Arg+19] Oscar A RGUDO, Eric G ALIN, Adrien P EYTAVIE, Axel PARIS, James G AIN et Eric G UÉRIN.
“Orometry-based terrain analysis and synthesis”. In : ACM Transactions on Graphics 38.6
(2019), p. 199 (cf. p. 24, 31, 98, 99, 105, 110).
[Bea+07] Matthew B EARDALL, Mckay FARLEY, Darius O UDERKIRK, Jeremy S MITH, Michael J ONES et
Parris K E GBERT. “Goblins by SpheroidalWeathering.” In : NPH. 2007, p. 7-14 (cf. p. 18).
[Bec+17] Michael B ECHER, Michael K RONE, Guido R EINA et Thomas E RTL. “Feature-based volumetric
terrain generation”. In : Proceedings of the 21st ACM SIGGRAPH Symposium on Interactive
3D Graphics and Games. 2017, p. 1-9 (cf. p. 31).
[Bel07] Farès B ELHADJ. “Terrain modeling : a constrained fractal model”. In : Proceedings of the 5th
international conference on Computer graphics, virtual reality, visualisation and interaction
in Africa. 2007, p. 197-204 (cf. p. 22, 31).
[BA05a] Farès B ELHADJ et Pierre AUDIBERT. “Modeling Landscapes with Ridges and Rivers”. In :
Proceedings of the Symposium on Virtual Reality Software and Technology. Monterey, USA :
ACM, 2005, p. 151-154 (cf. p. 22, 31).
[BA05b] Farès B ELHADJ et Pierre AUDIBERT. “Modeling landscapes with ridges and rivers : bottom
up approach”. In : Proceedings of the 3rd international conference on Computer graphics
and interactive techniques in Australasia and South East Asia. 2005, p. 447-450 (cf. p. 22).
[Ben07] Bedrich B ENES. “Real-time erosion using shallow water simulation”. In : (2007) (cf. p. 17).
[BF02] Bedřich B ENEŠ et Rafael F ORSBACH. “Visual simulation of hydraulic erosion”. In : (2002)
(cf. p. 16, 31).
[BR04] Bedřich B ENEŠ et Toney R OA. “Simulating desert scenery”. In : (2004) (cf. p. 18).
[Ben+06] Bedřich B ENEŠ, Václav T ĚŠÍNSK Ỳ, Jan H ORNYŠ et Sanjiv K B HATIA. “Hydraulic erosion”.
In : Computer Animation and Virtual Worlds 17.2 (2006), p. 99-108 (cf. p. 16, 31).
[BTR15] D B ERCOVICI, P TACKLEY et Y R ICARD. “7.07-the generation of plate tectonics from mantle
dynamics”. In : Treatise on Geophysics. Elsevier, Oxford (2015), p. 271-318 (cf. p. 41).
115
[Bri07] Robert B RIDSON. “Fast Poisson Disk Sampling in Arbitrary Dimensions”. In : SIGGRAPH
sketches. New York, NY, USA : ACM, 2007, p. 22 (cf. p. 88).
[Bri15] Robert B RIDSON. Fluid simulation for computer graphics. CRC press, 2015 (cf. p. 16).
[BHN07] Robert B RIDSON, Jim H OURIHAM et Marcus N ORDENSTAM. “Curl-noise for procedural fluid
flow”. In : ACM Transactions on Graphics (ToG) 26.3 (2007), 46-es (cf. p. 22).
[BSS07] John B ROSZ, Faramarz F S AMAVATI et Mario Costa S OUSA. “Terrain synthesis by-example”.
In : Advances in Computer Graphics and Computer Vision. Springer, 2007, p. 58-77 (cf.
p. 28).
[Bru20] Eric B RUNETON. Real-time High-Quality Rendering of Non-Rotating Black Holes. Rapp. tech.
2020 (cf. p. 112).
[CDS12] Siu-Wing C HENG, Tamal K D EY et Jonathan S HEWCHUK. Delaunay mesh generation. CRC
Press, 2012 (cf. p. 53).
[CMF98] Norishige C HIBA, Kazunobu M URAOKA et Kunihiko F UJITA. “An erosion model based
on velocity fields for the visual simulation of mountain scenery”. In : The Journal of
Visualization and Computer Animation 9.4 (1998), p. 185-194 (cf. p. 16, 31).
[Cig+03a] Paolo C IGNONI, Fabio G ANOVELLI, Enrico G OBBETTI, Fabio M ARTON, Federico P ONCHIO
et Roberto S COPIGNO. “BDAM—Batched Dynamic Adaptive Meshes for high performance
terrain visualization”. In : Computer Graphics Forum. T. 22. 3. Wiley Online Library. 2003,
p. 505-514 (cf. p. 37).
[Cig+03b] Paolo C IGNONI, Fabio G ANOVELLI, Enrico G OBBETTI, Fabio M ARTON, Federico P ONCHIO et
Roberto S COPIGNO. “Planet-sized batched dynamic adaptive meshes (P-BDAM)”. In : IEEE
Visualization, 2003. VIS 2003. IEEE. 2003, p. 147-154 (cf. p. 37).
[Clo93] Mark C LOOS. “Lithospheric buoyancy and collisional orogenesis : Subduction of ocea-
nic plateaus, continental margins, island arcs, spreading ridges, and seamounts”. In :
Geological Society of America Bulletin 105.6 (1993), p. 715-737 (cf. p. 45).
[CS17] Nicolas C OLTICE et Grace E S HEPHARD. “Tectonic predictions with mantle convection
models”. In : Geophysical Journal International 213.1 (2017), p. 16-29 (cf. p. 41).
[CD05] Robert L C OOK et Tony D E R OSE. “Wavelet noise”. In : ACM Transactions on Graphics (TOG)
24.3 (2005), p. 803-811 (cf. p. 23).
[Cor+16] Guillaume C ORDONNIER, Jean B RAUN, Marie-Paule C ANI, Bedrich B ENES, Eric G ALIN,
Adrien P EYTAVIE et Eric G UÉRIN. “Large scale terrain generation from tectonic uplift and
fluvial erosion”. In : Computer Graphics Forum. T. 35. 2. Wiley Online Library. 2016,
p. 165-175 (cf. p. 19, 20, 25, 30, 31).
116 B IBLIOGRAPHIE
[Cor+17a] Guillaume C ORDONNIER, Eric G ALIN, James G AIN, Bedrich B ENES, Eric G UÉRIN, Adrien
P EYTAVIE et Marie-Paule C ANI. “Authoring Landscapes by Combining Ecosystem and Terrain
Erosion Simulation”. In : ACM Transactions on Graphics 36.4 (2017), 134 :1-134 :12 (cf.
p. 19, 31, 40).
[Cor+19] Yann C ORTIAL, Adrien P EYTAVIE, Eric G ALIN et Eric G UÉRIN. “Procedural Tectonic Planets”.
In : Computer Graphics Forum. T. 38. 2. Wiley Online Library. 2019, p. 1-11 (cf. p. 104,
113).
[Cor+20] Yann C ORTIAL, Adrien P EYTAVIE, Éric G ALIN et Éric G UÉRIN. “Real-time hyper-amplification
of planets”. In : The Visual Computer (2020), p. 1-12 (cf. p. 113).
[Cor+17b] Yann C ORTIAL, Antoine W EBANCK, Eric G UÉRIN, Adrien P EYTAVIE et Eric G ALIN. “Modélisa-
tion procédurale de nuages multigenre”. In : Journées Françaises d’Informatique Graphique
(j.FIG). Rennes, France, oct. 2017 (cf. p. 113).
[CR11] Patrick C OZZI et Kevin R ING. 3D engine design for virtual globes. AK Peters/CRC Press, 2011
(cf. p. 36, 101).
[DC+14] Daniel Michelon D E C ARLI, Cesar Tadeu P OZZER, Fernando B EVILACQUA et Victor S CHETINGER.
“Procedural generation of 3D canyons”. In : 2014 27th SIBGRAPI Conference on Graphics,
Patterns and Images. IEEE. 2014, p. 103-110 (cf. p. 31).
[Der+11] Evgenij D ERZAPF, Björn G ANSTER, Michael G UTHE et Reinhard K LEIN. “River networks for
instant procedural planets”. In : Computer Graphics Forum. T. 30. 7. Wiley Online Library.
2011, p. 2031-2040 (cf. p. 2, 4, 22, 31, 34, 35, 40, 70, 101, 104, 108).
[DMG10] Evgenij D ERZAPF, Nicolas M ENZEL et Michael G UTHE. “Parallel View-Dependent Refinement
of Compact Progressive Meshes.” In : EGPGV. 2010, p. 53-62 (cf. p. 35).
[DKW94] AR D IXON, GH K IRBY et Derek PM W ILLS. “A data structure for artificial terrain generation”.
In : Computer Graphics Forum. T. 13. 1. Wiley Online Library. 1994, p. 37-48 (cf. p. 22).
[Dom+98] S D OMINGUEZ, SE L ALLEMAND, J M ALAVIEILLE et Roland von H UENE. “Upper plate deforma-
tion associated with seamount subduction”. In : Tectonophysics 293.3-4 (1998), p. 207-224
(cf. p. 45).
[Duc+97] Mark D UCHAINEAU, Murray W OLINSKY, David E S IGETI, Mark C M ILLER, Charles A LDRICH
et Mark B M INEEV-W EINSTEIN. “ROAMing terrain : real-time optimally adapting meshes”.
In : Proceedings. Visualization’97 (Cat. No. 97CB36155). IEEE. 1997, p. 81-88 (cf. p. 37,
81, 82).
B IBLIOGRAPHIE 117
[EMBI01] Carl E RIKSON, Dinesh M ANOCHA et William V B AXTER III. “HLODs for faster display of large
static and dynamic environments”. In : Proceedings of the 2001 symposium on Interactive
3D graphics. 2001, p. 111-120 (cf. p. 37).
[FFC82] Alain F OURNIER, Don F USSELL et Loren C ARPENTER. “Computer rendering of stochastic
models”. In : Communications of the ACM 25.6 (1982), p. 371-384 (cf. p. 10, 21, 31, 104).
[Gai+19] Mathieu G AILLARD, Bedrich B ENES, Eric G UÉRIN, Eric G ALIN, Damien R OHMER et Marie-
Paule C ANI. “Dendry : a procedural model for dendritic patterns”. In : Proceedings of the
ACM SIGGRAPH Symposium on Interactive 3D Graphics and Games. 2019, p. 1-9 (cf. p. 111).
[GMM15] James G AIN, Bruce M ERRY et Patrick M ARAIS. “Parallel, Realistic and Controllable Terrain
Synthesis”. In : Computer Graphics Forum 34.2 (2015), p. 105-116 (cf. p. 11, 28, 31).
[Gal+19] Eric G ALIN, Eric G UÉRIN, Adrien P EYTAVIE, Guillaume C ORDONNIER, Marie-Paule C ANI,
Bedrich B ENES et James G AIN. “A review of digital terrain modeling”. In : Computer
Graphics Forum. T. 38. 2. Wiley Online Library. 2019, p. 553-577 (cf. p. 10, 11, 16, 22,
23).
[Gar99] Michael G ARLAND. “Multiresolution modeling : Survey & future opportunities”. In : State
of the art report (1999), p. 111-131 (cf. p. 37).
[Gén+13] Jean-David G ÉNEVAUX, Éric G ALIN, Éric G UÉRIN, Adrien P EYTAVIE et Bedrich B ENES. “Ter-
rain Generation Using Procedural Models Based on Hydrology”. In : Transaction on
Graphics 32.4 (2013), 143 :1-143 :13 (cf. p. 11, 24, 31, 89, 107).
[Gén+15] Jean-David G ÉNEVAUX, Eric G ALIN, Adrien P EYTAVIE, Eric G UÉRIN, Cyril B RIQUET, François
G ROSBELLET et Bedrich B ENES. “Terrain modelling from feature primitives”. In : Computer
Graphics Forum. T. 34. 6. Wiley Online Library. 2015, p. 198-210 (cf. p. 23, 31).
[Ges+02] Dean G ESCH, Michael O IMOEN, Susan G REENLEE, Charles N ELSON, Michael S TEUCK et
Dean T YLER. “The national elevation dataset”. In : Photogrammetric engineering and
remote sensing 68.1 (2002), p. 5-32 (cf. p. 27).
[GZD08] Alexander G OLDBERG, Matthias Z WICKER et Frédo D URAND. “Anisotropic noise”. In : ACM
Transactions on Graphics (TOG) 27.3 (2008), p. 1-8 (cf. p. 23).
[Gon10] Álvaro G ONZÁLEZ. “Measurement of areas on a sphere using Fibonacci and latitude–
longitude lattices”. In : Mathematical Geosciences 42.1 (2010), p. 49-64 (cf. p. 52).
[Goo+14] Ian G OODFELLOW, Jean P OUGET-A BADIE, Mehdi M IRZA, Bing X U, David WARDE -FARLEY,
Sherjil O ZAIR, Aaron C OURVILLE et Yoshua B ENGIO. “Generative adversarial nets”. In :
Advances in neural information processing systems. 2014, p. 2672-2680 (cf. p. 29).
[Gu16] Eric G UÉRIN, Julie D IGNE, Eric G ALIN et Adrien P EYTAVIE. “Sparse representation of terrains
for procedural modeling”. In : Computer Graphics Forum 35.2 (2016), p. 177-187 (cf. p. 11,
29-31, 40).
118 B IBLIOGRAPHIE
[HPT04] Caroline M H AGERHALL, Terry P URCELL et Richard TAYLOR. “Fractal dimension of landscape
silhouette outlines as a predictor of landscape preference”. In : Journal of environmental
psychology 24.2 (2004), p. 247-255 (cf. p. 11).
[Hna+10] Houssam H NAIDI, Eric G UÉRIN, Samir A KKOUCHE, Adrien P EYTAVIE et Eric G ALIN. “Feature
based terrain generation using diffusion equation”. In : Computer Graphics Forum. T. 29.
7. Wiley Online Library. 2010, p. 2179-2186 (cf. p. 31).
[Hop96] Hugues H OPPE. “Progressive meshes”. In : Proceedings of the 23rd annual conference on
Computer graphics and interactive techniques. 1996, p. 99-108 (cf. p. 35).
[Hop98b] Hugues H OPPE. “Smooth view-dependent level-of-detail control and its application to
terrain rendering”. In : Proceedings Visualization’98 (Cat. No. 98CB36276). IEEE. 1998,
p. 35-42 (cf. p. 37).
[Hor45] Robert E H ORTON. “Erosional development of streams and their drainage basins ; hydro-
physical approach to quantitative morphology”. In : Geological society of America bulletin
56.3 (1945), p. 275-370 (cf. p. 24, 90).
[HDJ05] Lok M H WA, Mark A D UCHAINEAU et Kenneth I J OY. “Real-time optimal adaptation for pla-
netary geometry and texture : 4-8 tile hierarchies”. In : IEEE Transactions on Visualization
and Computer Graphics 11.4 (2005), p. 355-368 (cf. p. 37).
[Iso+17] Phillip I SOLA, Jun-Yan Z HU, Tinghui Z HOU et Alexei A E FROS. “Image-to-image translation
with conditional adversarial networks”. In : Proceedings of the IEEE conference on computer
vision and pattern recognition. 2017, p. 1125-1134 (cf. p. 29).
[Jon+09] Michael D J ONES, McKay FARLEY, Joseph B UTLER et Matthew B EARDALL. “Directable wea-
thering of concave rock using curvature estimation”. In : IEEE Transactions on Visualization
and Computer Graphics 16.1 (2009), p. 81-94 (cf. p. 18).
[KU07] K Raiyan KAMAL et Yusuf Sarwar U DDIN. “Parametrically controlled terrain generation”.
In : Proceedings of the 5th international conference on Computer graphics and interactive
techniques in Australia and Southeast Asia. 2007, p. 17-23 (cf. p. 31).
B IBLIOGRAPHIE 119
[KMN88] Alex D K ELLEY, Michael C M ALIN et Gregory M N IELSON. “Terrain simulation using a model
of stream erosion”. In : Proceedings of the 15th annual conference on Computer graphics
and interactive techniques. 1988, p. 263-268 (cf. p. 31).
[Ken+08] Andrew K ENSLER, Aaron K NOLL, Peter S HIRLEY, A K ENSLER, A K NOLL et P S HIRLEY. “Better
gradient noise”. In : Tech. Rep. UUSCI-2008–001 (2008) (cf. p. 22).
[Kri+09] Peter K RIŠTOF, Bedrich B ENEŠ, Jaroslav K ŘIVÁNEK et Ondřej Š T ’ AVA. “Hydraulic erosion
using smoothed particle hydrodynamics”. In : Computer Graphics Forum. T. 28. 2. Wiley
Online Library. 2009, p. 219-228 (cf. p. 17, 31).
[Lag+09] Ares L AGAE, Sylvain L EFEBVRE, George D RETTAKIS et Philip D UTRÉ. “Procedural Noise Using
Sparse Gabor Convolution”. In : ACM Transactions on Graphics 28.3 (2009), 54 :1-54 :10
(cf. p. 23, 83).
[Lag14] Dimitri L AGUE. “The stream power river incision model : evidence, theory and beyond”.
In : Earth Surface Processes and Landforms 39.1 (2014), p. 38-61 (cf. p. 20).
[LP68] Xavier L E P ICHON. “Sea-floor spreading and continental drift”. In : Journal of Geophysical
Research 73.12 (1968), p. 3661-3697 (cf. p. 41).
[Lew89] John-Peter L EWIS. “Algorithms for solid noise synthesis”. In : Proceedings of the 16th
annual conference on Computer graphics and interactive techniques. 1989, p. 263-270 (cf.
p. 23).
[Lin+96] Peter L INDSTROM, David KOLLER, William R IBARSKY, Larry F H ODGES, Nick FAUST et
Gregory A T URNER. “Real-time, continuous level of detail rendering of height fields”. In :
Proceedings of the 23rd annual conference on Computer graphics and interactive techniques.
1996, p. 109-118 (cf. p. 37).
[Lue+03] David L UEBKE, Martin R EDDY, Jonathan D C OHEN, Amitabh VARSHNEY, Benjamin WATSON
et Robert H UEBNER. Level of detail for 3D graphics. Morgan Kaufmann, 2003 (cf. p. 37).
[Mah10] Joseph M AHSMAN. “Projective grid mapping for planetary terrain”. Thèse de doct. 2010
(cf. p. 37).
[Man75] Benoit B M ANDELBROT. “Stochastic models for the Earth’s relief, the shape and the fractal
dimension of the coastlines, and the number-area rule for islands”. In : Proceedings of the
National Academy of Sciences 72.10 (1975), p. 3825-3828 (cf. p. 10, 21).
[Man82] Benoit B M ANDELBROT. “The fractal geometry of nature.” In : San Francisco, CA (1982)
(cf. p. 10, 21).
[MVN68] Benoit B M ANDELBROT et John W VAN N ESS. “Fractional Brownian motions, fractional
noises and applications”. In : SIAM review 10.4 (1968), p. 422-437 (cf. p. 10, 21).
120 B IBLIOGRAPHIE
[Mil86] Gavin SP M ILLER. “The definition and rendering of terrain maps”. In : Proceedings of the
13th annual conference on Computer graphics and interactive techniques. 1986, p. 39-48
(cf. p. 22, 31).
[Mor68] W Jason M ORGAN. “Rises, trenches, great faults, and crustal blocks”. In : Journal of
Geophysical Research 73.6 (1968), p. 1959-1982 (cf. p. 41).
[MKM89] F Kenton M USGRAVE, Craig E KOLB et Robert S M ACE. “The synthesis and rendering of
eroded fractal terrains”. In : ACM Siggraph Computer Graphics 23.3 (1989), p. 41-50
(cf. p. 15, 16, 31).
[Nat+13] Mattia N ATALI, Endre M L IDAL, Julius PARULEK, Ivan V IOLA et Daniel PATEL. “Modeling
Terrains and Subsurface Geology.” In : Eurographics (STARs). 2013, p. 155-173 (cf. p. 11).
[NWD05] Benjamin N EIDHOLD, Markus WACKER et Oliver D EUSSEN. “Interactive physically based
fluid and erosion simulation”. In : Eurographics workshop on natural phenomena. 2005
(cf. p. 16, 31).
[Ola+02] Mark O LANO, John C H ART, Wolfgang H EIDRICH, Bill M ARK et Ken P ERLIN. “Real-time
shading languages”. In : Course Notes. ACM SIGGRAPH 99 (2002) (cf. p. 22).
[ON00] Koichi O NOUE et Tomoyuki N ISHITA. “A method for modeling and rendering dunes with
wind-ripples”. In : Proceedings the Eighth Pacific Conference on Computer Graphics and
Applications. IEEE. 2000, p. 427-428 (cf. p. 18).
[PG07] Renato PAJAROLA et Enrico G OBBETTI. “Survey of semi-regular multiresolution models for
interactive terrain rendering”. In : The Visual Computer 23.8 (2007), p. 583-605 (cf. p. 37).
[Par+19a] Axel PARIS, Eric G ALIN, Adrien P EYTAVIE, Eric G UÉRIN et James G AIN. “Terrain Amplification
with Implicit 3D Features”. In : ACM Transactions on Graphics (TOG) 38.5 (2019), p. 1-15
(cf. p. 11, 26, 31).
[Par+19b] Axel PARIS, Adrien P EYTAVIE, Eric G UÉRIN, Oscar A RGUDO et Eric G ALIN. “Desertscape
Simulation”. In : Computer Graphics Forum. T. 38. 7. Wiley Online Library. 2019, p. 47-55
(cf. p. 18, 31).
[Per85] Ken P ERLIN. “An image synthesizer”. In : ACM Siggraph Computer Graphics 19.3 (1985),
p. 287-296 (cf. p. 22, 83).
[Per02] Ken P ERLIN. “Improving noise”. In : ACM Transactions on Graphics. T. 21. 3. ACM. 2002,
p. 681-682 (cf. p. 22).
[PH89] Ken P ERLIN et Eric M H OFFERT. “Hypertexture”. In : Proceedings of the 16th annual
conference on Computer graphics and interactive techniques. 1989, p. 253-262 (cf. p. 22).
B IBLIOGRAPHIE 121
[Pey+09a] Adrien P EYTAVIE, Eric G ALIN, Jérôme G ROSJEAN et Stéphane M ÉRILLOU. “Arches : a fra-
mework for modeling complex terrains”. In : Computer Graphics Forum. T. 28. 2. Wiley
Online Library. 2009, p. 457-467 (cf. p. 25).
[Pey+09b] Adrien P EYTAVIE, Eric G ALIN, Jérôme G ROSJEAN et Stéphane M ÉRILLOU. “Procedural
generation of rock piles using aperiodic tiling”. In : Computer Graphics Forum. T. 28. 7.
Wiley Online Library. 2009, p. 1801-1809 (cf. p. 15).
[PH93] Przemyslaw P RUSINKIEWICZ et Mark H AMMEL. “A fractal model of mountains and rivers”.
In : Graphics Interface. T. 93. Canadian Information Processing Society. 1993, p. 174-180
(cf. p. 22, 31).
[Raj+19] Suren Deepak R AJASEKARAN, Hao KANG, Bedrich B ENES, Martin Č ADÍK, Eric G ALIN, Eric
G UÉRIN, Adrien P EYTAVIE et Pavel S LAVÍK. “PTRM : Perceived Terrain Realism Metrics”.
In : arXiv preprint arXiv :1909.04610 (2019) (cf. p. 11).
[Ren97] Robert J R ENKA. “Algorithm 772 : STRIPACK : Delaunay triangulation and Voronoi diagram
on the surface of a sphere”. In : ACM Transactions on Mathematical Software (TOMS) 23.3
(1997), p. 416-434 (cf. p. 52).
[Ros94] David L R OSGEN. “A classification of natural rivers”. In : Catena 22.3 (1994), p. 169-199
(cf. p. 24).
[RPP93] Pascale R OUDIER, Bernard P EROCHE et M P ERRIN. “Landscapes synthesis achieved through
erosion and deposition process simulation”. In : Computer Graphics Forum. T. 12. 3. Wiley
Online Library. 1993, p. 375-383 (cf. p. 15, 16, 31).
[RME09] Brennan R USNELL, David M OULD et Mark E RAMIAN. “Feature-rich distance-based terrain
synthesis”. In : The Visual Computer 25.5-7 (2009), p. 573-579 (cf. p. 31).
[Št’+08] Ondřej Š T ’ AVA, Bedřich B ENEŠ, Matthew B RISBIN et Jaroslav K ŘIVÁNEK. “Interactive terrain
modeling using hydraulic erosion”. In : Proceedings of the 2008 ACM SIGGRAPH/Euro-
graphics Symposium on Computer Animation. Eurographics Association. 2008, p. 201-210
(cf. p. 17, 31).
[TGM12] Flora Ponjou TASSE, James E. G AIN et Patrick M ARAIS. “Enhanced Texture-Based Terrain
Synthesis on Graphics Hardware”. In : Computer Graphics Forum 31.6 (2012), p. 1959-
1972 (cf. p. 28, 31).
[TS02] John Michael Tutill T HOMPSON et H Bruce S TEWART. Nonlinear dynamics and chaos. John
Wiley & Sons, 2002 (cf. p. 10).
[Tho07] Chris T HORNE. “Origin-centric techniques for optimising scalability and the fidelity of
motion, interaction and rendering”. Thèse de doct. 2007 (cf. p. 36).
[TJ10] Luther A T YCHONIEVICH et MD J ONES. “Delaunay deformable mesh for the weathering and
erosion of 3d terrain”. In : The Visual Computer 26.12 (2010), p. 1485-1495 (cf. p. 18).
122 B IBLIOGRAPHIE
[Van+11] Juraj VANEK, Bedrich B ENES, Adam H EROUT et Ondrej S TAVA. “Large-scale physics-based
terrain editing using adaptive tiles on the GPU”. In : IEEE Computer Graphics and Applica-
tions 31.6 (2011), p. 35-44 (cf. p. 17, 31).
[Vos85] Richard F V OSS. “Random fractal forgeries”. In : Fundamental algorithms for computer
graphics. Springer, 1985, p. 805-835 (cf. p. 21, 31).
[Web+18] Antoine W EBANCK, Yann C ORTIAL, Eric G UÉRIN et Eric G ALIN. “Procedural cloudscapes”.
In : Computer Graphics Forum. T. 37. 2. Wiley Online Library. 2018, p. 431-442 (cf.
p. 113).
[WSG07] Lakin W ECKER, Faramarz S AMAVATI et Marina G AVRILOVA. “Contextual void patching for
digital elevation models”. In : The Visual Computer 23.9-11 (2007), p. 881-890 (cf. p. 11,
28).
[Wei+09] Li-Yi W EI, Sylvain L EFEBVRE, Vivek KWATRA et Greg T URK. “State of the Art in Example-
based Texture Synthesis”. In : Eurographics 2009, State of the Art Report, EG-STAR. Munich,
Germany : Eurographics Association, mar. 2009, p. 93-117 (cf. p. 27).
[Wor96] Steven W ORLEY. “A cellular texture basis function”. In : Proceedings of the 23rd annual
conference on Computer graphics and interactive techniques. 1996, p. 291-294 (cf. p. 22).
[WGG99] Brian W YVILL, Andrew G UY et Eric G ALIN. “Extending the csg tree. warping, blending and
boolean operations in an implicit surface modeling system”. In : Computer Graphics Forum.
T. 18. 2. Wiley Online Library. 1999, p. 149-158 (cf. p. 24).
[Zha+19] Yiwei Z HAO, Han L IU, Igor B OROVIKOV, Ahmad B EIRAMI, Maziar S ANJABI et Kazi Z AMAN.
“Multi-theme Generative Adversarial Terrain Amplification”. In : ACM Transactions on
Graphics 38.6 (nov. 2019), 200 :1-200 :14 (cf. p. 11, 30, 31).
[Zho+07] Howard Z HOU, Jie S UN, Greg T URK et James M. R EHG. “Terrain Synthesis from Digital
Elevation Models”. In : IEEE Transactions on Visualization and Computer Graphics 13.4
(2007), p. 834-848 (cf. p. 11, 27, 31).
B IBLIOGRAPHIE 123
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2020LYSEI094/these.pdf
© [Y. Cortial], [2020], INSA Lyon, tous droits réservés
FOLIO ADMINISTRATIF
Prénoms : Yann
Spécialité : Informatique
RESUME :
La synthèse de terrains virtuels à la fois vastes, détaillés, hétérogènes et explorables en temps-réel, constitue un des défis de
la modélisation de scènes naturelles. Les nombreuses méthodes de l’état de l’art ne proposent en général que de traiter des
scènes d’étendues limitées en topologie planaire. Dans cette thèse nous abordons la modélisation de terrain à l’échelle
maximale, c’est-à-dire planétaire. Peu de choses ont été proposées pour traiter ce problème qui dépasse, en termes de taille
du domaine, ce qui se fait classiquement, de quatre ordres de grandeur. Pour répondre à ce défi, nous proposons une solution
découplée originale à même de générer des planètes à l’échelle 1/1 présentant un bon niveau de réalisme. Notre architecture
prend tout d’abord en compte la géologie des planètes telluriques en mettant en œuvre une simulation guidée de tectonique
des plaques. Celle-ci permet la génération des caractéristiques à grande échelle des planètes telles les continents, le relief
océanique, les arcs d’îles ou encore les chaînes de montagnes. Ce modèle macroscopique est dans un second temps donné
en entrée d’une méthode d’hyper-amplification capable de produire des vues continues, détaillées, en temps-réel du terrain.
Cette seconde méthode procédurale s’appuie sur une pré-structuration du modèle macroscopique pour générer à la volée le
modèle détaillé final, dépendant de la vue caméra courante. Celui-ci est produit intégralement sur GPU par un procédé
massivement parallèle de subdivision stochastique, opérant à partir de règles dépendantes du niveau de détail. Notre solution
résout mieux certains problèmes inhérents aux quelques méthodes précédentes, toutes fractales, comme l’autosimilarité,
l’absence de variété des paysages produits et l’absence de contrôle utilisateur. Au final, les modèles planétaires que nous
produisons sont jugés plus réalistes, tout en étant plus contrôlables par des artistes.
MOTS-CLÉS : informatique graphique, modélisation de terrain, modélisation de planètes, modélisation procédurale, tectonique,
amplification de terrain, modélisation de rivières
Composition du jury : Loïc BARTHE (Professeur des Universités, Université Paul Sabatier de Toulouse - Rapporteur), Marc
DANIEL (Professeur des Universités, Polytech Marseille - Rapporteur), Céline ROUDET (Maître de Conférences, Université de
Bourgogne - Examinatrice), Éric GALIN (Professeur des Universités, Université Claude Bernard Lyon 1 - Examinateur), Éric
GUÉRIN (Maître de Conférences, INSA Lyon - Directeur de Thèse), Adrien PEYTAVIE (Maître de Conférences, Université
Claude Bernard Lyon 1 – co-Directeur de Thèse)