AFPS
AFPS
AFPS
RÉSUMÉ. Cet article présente quelques méthodes probabilistes développées et appliquées à EDF dans le cadre des récentes
réévaluations sismiques. Les simulations numériques sont effectuées dans le domaine temporel, ce qui permet une
modélisation plus réaliste du chargement sismique. Plus particulièrement, on présente la modélisation et la propagation des
incertitudes pour un circuit primaire et on détermine des courbes de fragilité par simulation de Monte Carlo. Puis, on
évoquera les méthodes disponibles pour l’analyse de la sensibilité du modèle par rapport aux paramètres incertains. Ce
dernier point est important si on souhaite pouvoir mieux appréhender et éventuellement réduire la variabilité des grandeurs
d’intérêt en sortie du modèle.
ABSTRACT. In this paper we present some probabilistic models developed at EDF for seismic margin assessment. We will
discuss the various sources of uncertainty and show how it is propagated to the model output. Seismic analysis is carried out
in the time domain so that realistic seismic ground motion can be taken into account. We then determine fragility curves and
show how sensitivity analysis can be applied in order to reduce model uncertainty, if necessary.
MOTS-CLÉS : Interaction sol-structure, simulation temporelle, incertitudes, analyse de sensibilités, courbes de fragilité.
KEYWORDS: Soil-structure interaction, time-domain simulation, uncertainty, sensitivity analysis, fragility curves.
1. Introduction
L’évolution des règles de dimensionnement sismique et notamment l’augmentation des niveaux d’aléa
sismique à considérer ont amené à des réévaluations sismiques des installations nucléaires. Dans le cadre de ces
réévaluations, on est conduit à expliciter les marges sismiques dans les méthodes de vérification afin de faire la
démonstration de la robustesse des ouvrages et de maîtriser les coûts des éventuelles modifications nécessaires.
Dans cet article, on présente les méthodes probabilistes développées et appliquées à EDF dans le cadre de
réévaluations sismiques de ses installations industrielles. Le dimensionnement sismique des tranches nucléaires
est essentiellement fondé sur des méthodes linéaires conservatrices. Cependant, dans le cadre des réévaluations
de sûreté, on peut avoir recours à des méthodes de simulation temporelle qui permettent de représenter de
manière plus réaliste les efforts induits par le séisme mais aussi le comportement structural. Les méthodes de
simulation de Monte Carlo permettent alors de tenir compte du caractère aléatoire (et non stationnaire) de
l’excitation sismique, cette dernière étant caractérisée par des accélérogrammes mesurés sur site ou générés de
manière artificielle. Par ailleurs, les incertitudes relatives à la modélisation de la structure et du sol peuvent
également être prises en compte.
L’interaction sol-structure est réalisée par le chaînage Code_Aster/PROMISS3D. Le chaînage de ces
logiciels permet de résoudre directement le problème couplé dans le domaine fréquentiel, ou alors de déterminer
des raideurs de ressorts de sol pour un calcul selon la méthode réglementaire simplifiée (Devesa et al. 2005).
Code_Aster permet la modélisation et la propagation d’incertitudes paramétriques mais aussi non paramétriques
(Soize, 2005) en utilisant des matrices aléatoires relatives au comportement structural. Plus précisément, on se
propose d’analyser plus en détail les points suivants :
Ces points seront discutés sur une étude de faisabilité appliquée à un circuit primaire principal (CPP), qui a déjà
fait l’objet des communications AFPS (Duval et al., 1999) et (Cambier et al., 2003).
Dans ce qui suit, on introduit brièvement le modèle couplé de bâtiment réacteur-CPP. Ce modèle est décrit
plus en détail dans les références (Duval et al., 1999) et (Cambier et al., 2003).
On considère un modèle simplifié de circuit primaire principal qui contient des non-linéarités localisées de
choc sur des butées élastiques. Les supports du CPP ainsi que les butées sont soumises à des déplacements
imposés par le bâtiment réacteur. Le modèle mécanique du bâtiment réacteur lui-même est un modèle brochettes.
Compte tenu de la taille du problème, le calcul s’effectue en deux étapes. Dans un premier temps, on effectue
une analyse sismique du bâtiment réacteur ce qui permet de déterminer les accélérations au niveau des ancrages
du CPP. Ces accélérations sont ensuite utilisées comme excitation du CPP, voir (Duval et al., 1999) pour plus de
détail. L’excitation sismique au niveau sol est prise en compte par le biais d’accélérogrammes compatibles avec
le spectre de sol. On considère un sol homogène et isotrope dont le module est de 15000 MPa. L’interaction sol -
structure (ISS) peut être prise en compte soit :
- par un ressort dont les valeurs des raideurs sont indépendantes de la fréquence et ajustées sur le premier
mode de balancement et le premier mode de pompage du système couplé sol – bâtiment (méthode des
Méthodes probabilistes en analyse sismique. 7ème Colloque National AFPS 2007 – Ecole Centrale Paris 3
fonctions d’impédances (Deleuze, 1967)) ; cette méthode correspond à celle mise en œuvre lors du
dimensionnement, elle permet la simulation temporelle ; les raideurs de sol équivalent peuvent être
déterminées avec le logiciel PROMISS3D (Clouteau, 2002).
- par une méthode fréquentielle de couplage (logiciel PROMISS3D). Les raideurs de sol dépendent alors
de la fréquence.
Dans les études qui suivent, on a choisi la première méthode où le sol est modélisé par un tapis de ressorts. La
fondation du bâtiment est superficielle, on considère qu’elle est rigide.
Les deux composantes du modèle, sol et structure, sont affectées de nombreuses incertitudes. Les modélisations
retenues sont résumées ci-dessous.
2.2.1. Sol
Les incertitudes relatives à la « partie sol » concernent d’une part la modélisation des caractéristiques du sol
qui jouent sur l’impédance du sol et d’autre part le caractère aléatoire du mouvement du sol induit par
l’évènement sismique.
- Propriétés du sol : on modélise les raideurs de sol équivalentes k s par des variables aléatoires
mutuellement indépendantes. Ne connaissant pas la loi de probabilité de ces variables aléatoires, on la
détermine à l’aide du principe de maximum d’entropie. Il en découle une modélisation par une loi
gamma1. Cette modélisation permet de prendre en compte non seulement l’incertitude sur les
caractéristiques du sol mais aussi les incertitudes liées à la détermination des ressorts équivalents.
- Excitation sismique : l’accélération du sol en un point donné est modélisée par un processus
stochastique. On suppose connues un certain nombre de réalisations de ce processus. Ces réalisations
peuvent être des accélérogrammes naturels, issues des bases de données, ou bien des accélérogrammes
artificiels (par exemple (Preumont, 1985)). Dans la pratique, les accélérogrammes sont définis à partir
de spectres de réponse d’oscillateur (selon la RFS n°2001-01). Ces spectres (SRO) peuvent être
explicitement construits à partir des triplets {M,R,S}, via des lois dites d'atténuation. Ces lois ont été
établies à partir de régressions sur des enregistrements de séismes. L’incertitude sur la détermination de
l’aléa sismique (du couple {M,R}) est prise en compte en considérant les fractiles de cette loi
d’atténuation.
REMARQUE. — On n’a pas pris en compte, dans ce modèle, la variabilité spatiale du champ sismique incident
qui introduit une variabilité supplémentaire de la réponse. Signalons que la plupart des méthodes proposées dans
la littérature s’appuient sur les densités spectrales et fonctions de cohérences fréquentielles. Ceci s’explique par
le fait que d’une part, on travaille alors avec des données disponibles dans littérature, voir par exemple
(Abrahamson, 1991), et d’autre part que ce type d’approche est adapté à la résolution fréquentielle du problème
d’ISS qui est la plus courante. Par construction, ces méthodes ne permettent pas de prendre en compte de
manière satisfaisante le caractère non stationnaire en amplitude et contenu fréquentiel du signal sismique. Une
méthode qui permet de modéliser la variabilité spatiale dans un contexte temporel a été proposée dans (Zentner,
2007) mais n’a pas encore été appliquée au cas du CPP.
1
Ne connaissant pas la loi de ces variables aléatoires, on la détermine à l’aide du principe de maximum d’entropie à partir de
[ ]
2
l’information disponible : sachant que E (1 / k s ) < ! , positive à valeur dans un intervalle [a,∞] et d’espérance k s .
4 7ème Colloque National AFPS 2007 – Ecole Centrale Paris
2.2.2. Structure
Le modèle du bâtiment réacteur et du circuit primaire avec interaction sol-structure contient un certain
nombre d’incertitudes. On reprend les modélisations probabilistes relatives au CPP proposés dans (Cambier et
al., 2003) et (Descelier et al., 2003) où on construit un modèle non paramétriques des incertitudes à partir du
modèle réduit moyen alors que les incertitudes liées au non-linéarités localisées sont prises en compte par une
modélisation paramétrique. L’approche non paramétrique (Soize, 2005) propose, dans le cadre d’un calcul
dynamique sur base modale, un modèle global des incertitudes qui est numériquement très efficace. Cette
méthode consiste en la modélisation des matrices généralisées (masse, raideur et amortissement) par des
matrices aléatoires. Cette approche présente par ailleurs l’avantage de travailler avec un nombre de paramètres
très réduit (les coefficients de dispersion) alors qu’une approche paramétrique peut nécessiter l’introduction d’un
nombre très important de variables aléatoires dont il faut définir les paramètres. Il faut néanmoins pouvoir
caractériser ces coefficients de dispersion.
- Structure bâtiment réacteur et CPP : l’incertitude relative au modèle est prise en compte au moyen de la
méthode dite non paramétrique de C. Soize (Soize, 2005). Il en découle que les matrices généralisées de
masse, de raideur et d’amortissement sont des matrices aléatoires. Le tirage aléatoire de ces matrices est
possible dans Code_Aster. Il suffit de donner les matrices moyennes (ce sont les matrices généralisées
du modèle « best-estimate ») ainsi que les coefficients de dispersion relative à ces matrices. Ici, les
coefficients de dispersion ont été recalés de manière à ce que les modèles (BR et CPP) vérifient
#f = f max ! f min > 0.2 " f best !estimate pour la première fréquence propre (selon les recommandations de
l’AIEA).
- Butées élastiques du CPP : les paramètres (raideurs, jeu, amortissement) utilisés pour modéliser les
butées ne sont pas connus de manière satisfaisante. On introduit l’incertitude sur les 28 raideurs de
butées k but qui sont considérées comme des variables aléatoires statistiquement indépendantes suivant
une loi gamma (voir les remarques concernant les raideurs de sol).
On suppose que toutes les sources d'incertitude sont statistiquement indépendantes. La méthode retenue pour
la propagation des incertitudes introduites dans la section précédente est la méthode de Monte Carlo standard.
C’est la méthode la plus générale et la plus adaptée pour traiter des modèles comportant des modélisations
probabilistes de natures différentes (modélisations paramétrique/non paramétrique, processus aléatoire) en
combinaison avec un modèle aux éléments finis de taille non négligeable.
L’objet des études probabilistes de sûreté (EPS) sismique, est l’étude du risque de défaillance d'un système
(en l’occurrence l’installation nucléaire) composé de sous-structures, équipements, etc. La probabilité de
défaillance de l’installation nucléaire est alors déterminée au moyen d’un arbre de défaillance recensant toutes
les combinaisons possibles d’événements qui conduisent à la défaillance. Afin de déterminer le risque de
défaillance des composants (sous-structures et équipements), il est nécessaire de déterminer les courbes de
fragilité associées qui donnent la probabilité conditionnelle de défaillance en fonction d'un niveau de paramètre
représentatif de l’action sismique (en général, on prend l’accélération maximale du sol). La probabilité de
défaillance du composant est obtenue après convolution avec la courbe d'aléa sismique. Pour un site donné, la
courbe d’aléa sismique représente la probabilité annuelle du dépassement de valeurs du paramètre représentatif
de l’action sismique.
Méthodes probabilistes en analyse sismique. 7ème Colloque National AFPS 2007 – Ecole Centrale Paris 5
Dans ce qui suit, on s’intéresse exclusivement à l’établissement de courbes de fragilité par simulation
numérique. Remarquons que dans la pratique américaine, les courbes de fragilité sont généralement déterminées
à l’aide d’une procédure du type « ingénieur » s’appuyant sur l’accélération de dimensionnement et un certain
nombre de facteurs de marge (EPRI, 2002, 2003).
La courbe de fragilité d'un composant est définie à partir de la notion de capacité. La capacité d'un
composant est la valeur du paramètre représentatif de l’action sismique à partir de laquelle le composant est
défaillant.
L'approche courante consiste à modéliser la capacité par une variable aléatoire suivant une loi lognormale.
Par conséquent, la capacité A d'un composant (et ainsi sa courbe de fragilité), est caractérisée par deux
paramètres qui sont la médiane Am (« capacité médiane ») et l’écart-type ! . La probabilité de ruine pour un
niveau d’accélération A peut s’écrire (EPRI, 2003):
A (1)
& ln( A / Am ) #
P f A ( A) = ( p (a ) da = '$$ !!
123 % ) "
0
Distribution log-normale
où " (!) désigne la fonction de répartition d’une variable aléatoire gaussienne centrée réduite.
Cette approche a ensuite été affinée en dissociant les incertitudes en deux catégories. Ainsi, on distingue
d’une part les incertitudes irréductibles inhérentes au caractère aléatoire de l’excitation sismique ("aleatory
uncertainty" dans la littérature anglophone), et d’autre part les incertitudes épistémiques ("epistemic
uncertainty"), c’est-à-dire l’incertitude de méconnaissance que l'on peut réduire en affinant les modèles et/ou les
données. Ces deux types d’incertitudes sont représentés en distinguant les écart-type ! R et ! U respectivement.
En introduisant une « deuxième couche d’incertitudes » dans l’équation (1) (en prenant ! = ! R et en tenant
compte de l’incertitude sur la médiane, caractérisée par l’écart-type ! R - voir la référence (Kennedy et al.,
1980) pour une description plus détaillée), on obtient des courbes de fragilité plus sophistiquées.
Ainsi, la probabilité conditionnelle de ruine pour un niveau de confiance Q s’écrit (Kennedy et al., 1980), (EPRI,
2002) :
On peut alors tracer un ensemble des courbes de fragilité où chaque courbe correspond à un niveau de confiance
Q. On passe de la modélisation (1) à la modélisation (2) en posant
(3)
! C = ! R2 + ! U2
REMARQUE. — La courbe de fragilité composite correspond à la courbe moyenne alors que l’expression (2)
donne la courbe médiane en choisissant Q=0.5 (de manière équivalente en prenant ! U = 0 ).
6 7ème Colloque National AFPS 2007 – Ecole Centrale Paris
Les ingrédients principaux pour l’établissement de courbes de fragilité par simulation numérique sont les
suivants:
- Détermination de l’excitation sismique à considérer,
- Introduction et propagation des incertitudes,
- Définition de critères de défaillance,
- Calcul numérique et estimation des paramètres (médiane et écart-type logarithmique).
REMARQUE. — La définition de critères de défaillance réalistes est un point délicat. Il serait nécessaire
d’avoir un modèle mécanique très sophistiqué permettant de prendre en compte des phénomènes complexes tels
que la plastification ou encore des cinématiques géométriquement non linéaires afin de tenir compte des
défaillances multiples susceptibles d’avoir lieu. Aussi, beaucoup d’auteurs travaillent plutôt avec la notion de
dommage et déterminent ainsi des courbes de fragilité relatives aux niveaux de dommage choisis.
Dans ce qui suit, on considère que l’accélération maximale (PGA) a été choisie pour caractériser le niveau
d’excitation sismique et donc la capacité. La démarche suivie consiste alors à modéliser l’issue des expériences
numériques par une variable aléatoire de Bernoulli X. En effet, pour chaque simulation numérique, on a deux
issues possibles : soit on a atteint le niveau critique et on a défaillance (xi=1) soit on n’a pas défaillance (xi=0).
L’estimation des paramètres recherchés peut se faire par la méthode du maximum de vraisemblance. La fonction
de vraisemblance à maximiser pour ce problème s’écrit :
N
[
L = " Pf A ( a i )
i =1
] [1 ! P
xi
f A (ai ) ]
1! xi (4)
Dans cette expression, la réalisation xi de X prend donc la valeur 1 si on a défaillance ou 0 s’il n’y a pas
défaillance pour le chargement (l’accélération maximale) a i . Ces événements arrivent avec la probabilité P f a
donnée par l’expression (1). Le problème d’optimisation associé,
doit être résolu numériquement. Ce type d’approche a été utilisé entre autres par (Shinozuka, 2000). Il est
e
possible d’estimer des intervalles de confiance pour les estimations Am , ! e . Connaissant une estimation de
e e
! R et de ! R , on peut ensuite déterminer ! U par la relation (3) afin de tracer la famille de courbes décrite par
l’expression (2). On peut ensuite valider la modélisation par un test d’hypothèse. Par ailleurs, il est possible de
directement obtenir des intervalles de confiance pour la courbe moyenne, donnés par l’expression (1), en
simulant plusieurs échantillons.
En terme d’exercice, on a estimé les paramètres Am et ! de l’équation (1) pour le modèle du CPP décrit
dans §2.1. Les incertitudes et excitations aléatoires sont celles introduites dans §2.2. Quant au critère de
défaillance, on a choisi, dans un premier temps, un critère simple. Le modèle du CPP est un modèle simplifié
constitué de poutres pour modéliser la tuyauterie et ne permet pas de prendre en compte des comportement plus
complexes telles que la plastification.
Méthodes probabilistes en analyse sismique. 7ème Colloque National AFPS 2007 – Ecole Centrale Paris 7
Le critère considéré ici est alors le dépassement d’une contrainte admissible déterminé selon les règles de
dimensionnement RCC-M. Les résultats de l’estimation, pour 100 simulations, sont donnés sur la figure 1. La
figure 2 donne la convergence de l’estimation de Am en fonction du nombre de simulations effectué. On
observe, qu’un nombre de simulation important est nécessaire afin de faire converger les calculs.
Sur la figure 3 on a tracé la droite de Henry pour le logarithme de la capacité afin de vérifier si l’hypothèse
d’une loi log-normale est justifié. Les points suivent globalement bien la droite de référence mais il y a un
certain nombre de valeurs aberrantes.
L’analyse de sensibilité vise à quantifier les perturbations sur la réponse engendrées par des perturbations sur
les variables et données d’entrée. Ainsi, les objectifs principaux d’un calcul de sensibilité sont généralement les
suivants:
(1) Identification des variables non importantes afin de réduire le modèle (et ainsi le temps de calcul).
(2) Identification des variables les plus influentes afin d’affiner leur modélisation ou de réduire les
incertitudes, si possible (par exemple en collectant de nouvelles données afin de réduire le manque
de connaissance initial). Ceci conduit finalement à une réduction des incertitudes sur la grandeur
d’intérêt.
(3) Amélioration de la connaissance sur le modèle, évaluation de la qualité du modèle (les incertitudes
sur la grandeur d’intérêt, relèvent-elles surtout du manque de connaissance lié aux paramètres du
modèle ou par exemple sur l’excitation sismique, par nature aléatoire ?).
Le point (2) peut être important si un critère de sûreté, par exemple une contrainte à ne pas dépasser ou
encore une probabilité de défaillance n’est pas satisfait. L’analyse de sensibilité permet alors de repérer les
incertitudes contribuant le plus à la variabilité de la grandeur d’intérêt et de les réduire si, initialement, elles ont
été traitées de manière plutôt grossière.
Dans ce qui suit, on suppose que les variables d’entrée incertaines sont des variables aléatoires (v.a.)
indépendantes, notées X 1 , K , X n . Les variables de sortie Y1 , K , Yk sont alors également des v.a. Pour
simplifier les notations, on suppose avoir choisi une grandeur d’intérêt (sortie) scalaire Y ! R . On note E ( X i )
l’espérance mathématique de la variable aléatoire X i et Var ( X i ) sa variance.
!Y j
( x ) Var ( X i ) (6)
!X i
Var (Y )
Il s’agit d’une analyse de sensibilité locale, autour d’une valeur de référence, ici l’espérance mathématique des
variables incertaines x . On voit alors aisément que cette approche peut être satisfaisante dans le cas linéaire mais
se révèle insuffisante si le modèle exhibe un comportement non linéaire. D’autre part, elle ne permet de calculer
la sensibilité que pour des variables aléatoires (paramètres du modèle) et non pour des processus stochastiques
ou matrices aléatoires.
Méthodes probabilistes en analyse sismique. 7ème Colloque National AFPS 2007 – Ecole Centrale Paris 9
Les différentes incertitudes étant considérées statistiquement indépendantes, on peut obtenir une expression plus
aisée pour le calcul numérique des différentes indices de sensibilité en décomposant la variance totale comme
suit :
[ ] [ ]
Vi = Var E(Y X i ) , Vij = Var E(Y X i , X j ) ! Vi ! V j , Vijk = L
Ainsi, les indices de sensibilité du premier ordre S i , du second ordre S ij ainsi que les indices totaux S Ti
peuvent s’exprimer comme :
S i = Vi / Var(Y )
S ij = Vij / Var(Y ) (9)
S Ti = S i + ! S ij + ! S ijk + L
i< j i< j <k
V !i (10)
S Ti = 1 !
Var (Y )
Dans (Saltelli, 2004), on propose une méthode efficace (nécessitant un nombre réduit de simulations) pour
l’approximation numérique des expressions Vi , Vij , Vijk , K ainsi que V !i .
10 7ème Colloque National AFPS 2007 – Ecole Centrale Paris
Dans la modélisation BR et CPP, les deux parties sont supposées ne pas interagir. En effet, les déplacements,
vitesses, accélérations déterminés lors du calcul du BR sont relevés et ensuite appliqué en tant que conditions
limites au modèle du CPP (voir §2.1.). Il est alors possible de hiérarchiser les incertitudes pour les deux
structures séparément. Dans un premier temps, on a donc considéré seul le modèle du BR avec incertitudes sur la
modélisation du sol et une excitation aléatoire, à savoir l’excitation sismique. On a donc, comme auparavant,
modélisé les raideurs des ressorts de sol par des variables aléatoires (indice 1) et l’excitation sismique est prise
en compte par le moyen d’accélérogrammes (indice 2). A titre d’exemple, on a choisi, en tant que grandeurs
d’intérêt, le déplacement et l’accélération en direction horizontale sur une des butées d’ancrage du CPP.
On détermine les indices de sensibilité du premier ordre S1 et S2 pour ces deux grandeurs d’intérêt. On trouve
une sensibilité quasi nulle par rapport à l’incertitude liée aux ressorts de sol. C’est la variabilité de l’excitation
sismique qui contribue le plus à la variabilité des grandeurs d’intérêt. La convergence de ces estimations est
présenté sur les figures 4 et 5. Le nombre de simulations N indiqué correspond au nombre de simulations
utilisées pour l’estimation de la variance et de l’espérance mathématique. Le nombre de simulations à effectuer
pour estimer des indices de sensibilité est égal à M=2*N, ceci étant dû à la nécessité d’estimer les espérances
conditionnelles.
REMARQUE. — Comme on n’a introduit que deux sources d’incertitudes, les indices totaux se déduisent
immédiatement des indices du premier ordre, à savoir : S T 1 = 1 ! S 2 et S T 2 = 1 ! S1 .
Afin de hiérarchiser l’impact de toutes les incertitudes sur les résultats de calculs, il sera nécessaire de
considérer les incertitudes relatives à la structure BR, qu’on a omis ici par souci de simplicité. Par ailleurs, on
pourra compléter l’étude par d’autres grandeurs d’intérêt comme des déplacements verticaux ou encore des
vitesses. Puis, dans un deuxième temps, les incertitudes affectées au modèle CPP devront également être
hiérarchisées.
5. Conclusion et perspectives
Dans cet article, on a présenté la modélisation et la propagation d’incertitudes à l’exemple d’un modèle de
circuit primaire principal sous excitation sismique. Tous les calculs ont été effectués avec Code_Aster et le
logiciel d’interaction sol-structure PROMISS3D.
Ce type de modélisation probabiliste peut être appliqué dans le cadre de réévaluations de sûreté sismique des
installations industrielles pour déterminer des courbes de fragilité des composants par simulation numérique.
Rappelons que les courbes de fragilité constituent, avec les courbes d’aléa sismique, l’un des éléments clés dans
les études probabilistes de sûreté (EPS) sismiques. L’analyse de sensibilité, quant à elle, contribue à une
meilleure compréhension du modèle probabiliste. D’une part, elle peut permettre une réduction de modèle en
écartant les variables non pertinentes et, d’autre part, de faire porter les efforts de modélisation sur les variables
susceptibles d’influencer de façon conséquente la grandeur d’intérêt (par exemple une contrainte).
Le modèle du CPP comporte un grand nombre d’incertitudes et la modélisation aux éléments finis associée
est plutôt complexe (non-linéarités de choc). Aussi, il n’est pas étonnant qu’un certain nombre de calculs (> 100
pour le CPP) soit nécessaire afin de faire converger les estimations. Ceci peut être contraignant, notamment,
parce que le nombre d’accélérogrammes disponibles est généralement réduit, ceci surtout si on utilise des
accélérogrammes naturels. Afin d’y remédier, on pourra mettre en œuvre des méthodes plus sophistiquées ayant
pour but d'accélérer la convergence des estimations. De manière générale, on peut réduire le nombre de
simulations nécessaires en optimisant l’échantillonnage des variables aléatoires à l’aide de la méthode de
l’Hypercube Latin. Cette méthode consiste à séparer le support des variables aléatoires en plusieurs sous-
domaines disjoints équiprobables et puis de tirer une valeur dans chaque intervalle (selon la loi en question).
Pour notre cas, cette méthode peut être mise en œuvre que pour les raideurs de sol et les raideurs de butée du
CPP qui sont modélisées par des variables aléatoires. Cependant, elle n’est pas compatible avec la modélisation
non paramétrique ni avec l’excitation par un processus stochastique (accélérogrammes). Une autre piste pour
accélérer la convergence des estimations serait l’introduction de méthodes de réduction de variance.
Quant aux courbes de fragilité, l’utilisation d’autres indicateurs de nocivité que le PGA pourrait être plus
pertinente pour caractériser le niveau sismique. La question de l’indicateur le plus pertinent est difficile.
D’autant plus qu’il ne peut y avoir de réponse générique à cette question, car différents types de structure et
d’équipement ne réagissent pas de la même manière au séisme. Le PGA a néanmoins le mérite de la simplicité et
12 7ème Colloque National AFPS 2007 – Ecole Centrale Paris
on peut considérer que l’incertitude sur le niveau sismique est prise en compte en introduisant l’écart-type ! U ,
c’est-à-dire l’incertitude sur la capacité médiane, voir §3.1.
6. Bibliographie
Abrahamson N.A., Schneider J.F., Stepp J.C., Empirical spatial coherency functions for application to soil-structure
interaction analysis. Earthquake Spectra (7) 1, 1991, p.1-27.
Cambier S., Desceliers C., Soize C., « Prise en compte probabiliste des incertitudes dans l’estimation du comportement
sismique d’un circuit primaire », Colloque AFPS 2003.
Code_Aster, general public licensed structural mechanics finite element software: http://www.code-aster.org.
Clouteau D., Manuel d’administration de MISS3D. Centrale Recherche, 2002.
http://www.mssmat.ecp.fr/structures/missuk.html.
Deleuze G. « Réponse à un mouvement sismique d'un édifice posé sur un sol élastique. » Annales de l'ITBTP, 1967.
Devesa G., Guyonvarh V., Clouteau D., « Use of coupling and regulatory methods in soil structure interaction for nuclear
power plants. » Proceedings of Eurodyn, Vol. 2, Millpress, 2005.
Descelier C., Soize C. et Cambier S., « Uncertain nonlinear dynamical systems subjected to seismic load. » Proceedings of
ICASP, Millpress 2003.
Duval C., Guyonvarh V., Louche V. Pigat J. Waeckel Fe., « Méthodes d’estimation du comportement sismique d’un circuit
primaire de réacteur à eau préssurisée. » Colloque AFPS 1999.
EPRI, Seismic Fragility Application Guide, Final Report 1002988, 2002.
EPRI, Seismic Probabilistic Risk Assessment Implementation Guide, Final Report 1002989, 2003.
Feau C., Méthodes probabilistes en mécanique sismique – bibliographie sur l'élaboration des courbes de fragilité, Rapport
CEA SEMT/EMSI/RT/03-023/A, 2004.
Gupta I.D., Trifunac M.D., « A note on the nonstationarity of seismic response of structures. » Engineering Structures (23),
2000, p.1567-1577.
Kennedy R.P., Cornell C.A., Campbell R.D., Kaplan S, Perla H.F., «Probabilistic seismic safety of an existing nuclear power
plant.» Nuclear Eng. Design (59), 1980, p. 315-338.
Preumont A., « The generation of non-separable artificial earthquake accelerograms for the design of nuclear power plants. »
Nuclear Engineering and Design 88, 1985.
Saltelli A., Tarantola S., Campolongo E., Ratto M, Sensitivity analysis in practice. A guide to assessing scientific
models. Wiley, 2004.
Saltelli A., Global sensitivity analysis: an introduction. In: Sensitivity analysis of model output. K. M. Hanson et F.M.
Hemez, eds. Los Alamos National Laboratory, 2005.
Sobol, I.M., Sensitivity analysis for non-linear mathematical models. Math. Modelling & Comp.Exp. (1), 1993, p. 407-141.
Soize C., « Random matrix theory for modelling uncertainties in computational mechanics. » Comput. Methods Appl. Mech.
Engrg. (194), 2005, p.1333-1366.
Shinozuka M., Feng Q. et Lee J. et Naganuma T., « Statistical analysis of fragility curves. » J. Eng. Mech. ASCE (126) 12,
2000, p.1224-1231.
Zentner I., « Simulation of spatially incoherent, non stationary seismic free field motion and its impact on response in SSI
analysis. » Proceedings of COMPDYN 2007.