AccueilđŸ‡«đŸ‡·Chercher

Analyse de sensibilité

L’analyse de sensibilitĂ© est l'Ă©tude de la façon dont l'incertitude de la sortie d'un code ou d'un systĂšme (numĂ©rique ou autre) peut ĂȘtre attribuĂ©e Ă  l'incertitude dans ses entrĂ©es[1] - [2] - [3]. Il s'agit d'estimer des indices de sensibilitĂ© qui quantifient l'influence d'une entrĂ©e ou d'un groupe d'entrĂ©es sur la sortie.

Introduction

Applications

L'analyse de sensibilitĂ© peut ĂȘtre utile pour beaucoup d'applications[4]:

  • Tester la robustesse d'un modĂšle ou d'un systĂšme en prĂ©sence d'incertitude.
  • Une meilleure comprĂ©hension des relations entre l'entrĂ©e et la sortie des variables dans un systĂšme ou d'un modĂšle.
  • La rĂ©duction d'incertitude, Ă  travers l'identification des entrĂ©es du modĂšle qui causent une incertitude importante dans la production et devraient donc ĂȘtre le centre de l'attention.
  • La recherche d'erreurs dans le modĂšle (par la rencontre inattendue des relations entre les entrĂ©es et les sorties).
  • La simplification du modĂšle, en fixant les entrĂ©es qui n'ont pas d'effet sur la sortie, ou en identifiant et en supprimant les parties redondantes de la structure du modĂšle.
  • L'amĂ©lioration de la communication entre modĂ©lisateurs et dĂ©cideurs (par exemple en formulant des recommandations plus crĂ©dibles, comprĂ©hensibles, irrĂ©sistibles ou de persuasion).
  • Trouver des rĂ©gions dans l'espace des entrĂ©es pour lesquelles la sortie du modĂšle est maximale ou minimale, ou rĂ©pond Ă  un certain critĂšre d'optimalitĂ© (voir optimisation et mĂ©thode de Monte Carlo).
  • Pour la calibration des modĂšles avec un grand nombre de paramĂštres, une analyse de sensibilitĂ© peut faciliter le rĂ©glage des paramĂštres en se concentrant sur les paramĂštres sensibles. Sans connaĂźtre la sensibilitĂ© des paramĂštres, beaucoup de temps et d'effort peuvent ĂȘtre gaspillĂ©s pour rĂ©gler des paramĂštres peu sensibles[5].
  • Chercher Ă  identifier les liens importants entre les observations, les entrĂ©es du modĂšle, et des prĂ©dictions ou des prĂ©visions, conduisant Ă  l'Ă©laboration de meilleurs modĂšles[6] - [7].

Notations et vocabulaire

L'objet d'Ă©tude de l'analyse de sensibilitĂ© est une fonction , (appelĂ©e "modĂšle mathĂ©matique" ou "code"). Elle peut ĂȘtre vue comme une boĂźte noire dont on ne connaĂźt que sa sortie . Ses entrĂ©es sont notĂ©es . Il s'agit de paramĂštres de la boĂźte noire qui ont un impact sur la sortie du systĂšme.

avec .

Problématiques

Le choix de la méthode de l'analyse de sensibilité est généralement déterminée pour répondre aux contraintes qu'impose la fonction . Les plus courantes sont :

  • CoĂ»t de calcul : sauf dans de trĂšs rares cas, faire une analyse de sensibilitĂ© requiert d'Ă©valuer un grand nombre de fois[8]. Cela devient une barriĂšre quand :
    • Une seule exĂ©cution du code prend beaucoup de temps (c'est couramment le cas).
    • Le code dispose d'un grand nombre d'entrĂ©es. L'espace Ă  explorer devient trop grand (voir "MalĂ©diction de la dimensionnalitĂ©").
  • EntrĂ©es corrĂ©lĂ©es : l'hypothĂšse d'indĂ©pendance entre les entrĂ©es du modĂšle simplifie beaucoup l'analyse de sensibilitĂ©, mais parfois on ne peut pas nĂ©gliger que les entrĂ©es soient fortement corrĂ©lĂ©es. Les corrĂ©lations entre les entrĂ©es doivent alors ĂȘtre prises en compte dans l'analyse[9].
  • La non-linĂ©aritĂ© : selon que le code Ă  analyser est linĂ©aire ou non, on prĂ©fĂ©rera diffĂ©rentes techniques (score de rĂ©gression linĂ©aire quand il est linĂ©aire, scores fondĂ©s sur la variance quand il ne l'est pas)[10].
  • Interactions : lorsque les entrĂ©es ont seulement des effets additifs, on dit qu'elles ne sont pas en interaction. Certaines techniques simples (nuage de point, OAT) sont alors applicables[11]. Quand ce n'est pas le cas, d'autres techniques sont plus indiquĂ©es (calcul des indices de Sobol simples et totaux).
  • Sorties multiples ou fonctionnelle : gĂ©nĂ©ralement introduite pour des codes Ă  une seule sortie, l'analyse de sensibilitĂ© s'Ă©tend aux cas oĂč la sortie Y est un vecteur, une fonction[12], une sĂ©rie temporelle ou un champ.
  • À partir de donnĂ©es : il arrive que l'on n'ait pas la possibilitĂ© d'Ă©valuer le code sur tous les points dĂ©sirĂ©s. On ne dispose de la sortie du code qu'en des points donnĂ©s (pour une analyse rĂ©trospective ou une expĂ©rience non-reproductible, par exemple). La rĂ©ponse du code en d'autres points que ceux donnĂ©s doit alors ĂȘtre infĂ©rĂ©e Ă  partir des points connus. On construit alors un modĂšle statistique du code (ou "mĂ©ta-modĂšle"[13]).
  • Code stochastique : un code est dit dĂ©terministe lorsque, pour plusieurs Ă©valuations du code avec les mĂȘmes entrĂ©es, on obtient toujours la mĂȘme sortie. Lorsque ce n'est pas le cas (la sortie est diffĂ©rente malgrĂ© des entrĂ©es identiques), le code est dit stochastique. Il faut alors sĂ©parer la variabilitĂ© de la sortie due Ă  la variabilitĂ© sur les entrĂ©es de celle due au caractĂšre stochastique[14].

MĂ©thodologies

Il existe un grand nombre d'approches pour faire une analyse de sensibilité, dont beaucoup ont été développées pour répondre à une ou plusieurs des contraintes discutées ci-dessus. Elles se distinguent également par le type de mesure de sensibilité (décomposition de variance, dérivées partielles, effets élémentaires...). En général, on retrouve le plan suivant dans la plupart des procédures :

  1. Quantifier l'incertitude dans chaque entrĂ©e (plages de valeurs possibles, distributions de probabilitĂ©). Cela peut ĂȘtre un problĂšme en soi car beaucoup de mĂ©thodes existent pour obtenir l'incertitude des distributions de donnĂ©es subjectives[15].
  2. Identifier la(les) sortie(s) du modĂšle qui vont ĂȘtre analysĂ©es (la cible d'intĂ©rĂȘt devrait idĂ©alement avoir une relation directe avec le problĂšme abordĂ© par le modĂšle). La seule rationalisation imposĂ©e par cette tĂąche est un des bĂ©nĂ©fices de l'analyse de sensibilitĂ©.
  3. Exécuter le modÚle un certain nombre de fois en suivant un plan d'expérience[16] (différent suivant l'approche choisie et l'incertitude des entrées).
  4. Calculer la mesure de sensibilité choisie pour le problÚme.

Dans certains cas, cette procĂ©dure sera rĂ©pĂ©tĂ©e, par exemple en hautes-dimensions, des problĂšmes oĂč l'utilisateur doit d'abord trier les variables sans importance ("screening") avant d'effectuer une analyse de sensibilitĂ© complĂšte[1].

Les diffĂ©rentes mĂ©thodologies (voir ci-dessous) se distinguent par les mesures de sensibilitĂ© qui sont calculĂ©es. Ces mĂ©thodologies se chevauchent parfois et d'autres mesures de sensibilitĂ©, adaptĂ©es aux contraintes du problĂšme, peuvent ĂȘtre testĂ©es.

One-At-a-Time (OAT)

Le moyen le plus simple et le plus commun d'Ă©tudier la sensibilitĂ© des entrĂ©es est de les modifier une par une ("One-At-a-Time" : OAT), les autres restant fixĂ©es Ă  une valeur nominale. On voit alors l'effet que cela produit sur la sortie[17] - [18] - [19]. La mĂ©thode OAT  implique habituellement de :

  • DĂ©placer une variable d'entrĂ©e, laissant les autres Ă  une valeur de rĂ©fĂ©rence (nominale)
  • Puis remettre la variable d'entrĂ©e Ă  sa valeur nominale ; puis Ă  faire ainsi pour chacune des autres entrĂ©es de la mĂȘme maniĂšre.

La sensibilitĂ© peut ensuite ĂȘtre mesurĂ©e par la surveillance des changements dans la sortie, par exemple, par les dĂ©rivĂ©es partielles ou de rĂ©gression linĂ©aire. Cela semble logique que tout changement observĂ© dans la sortie peut ĂȘtre attribuĂ© sans ambiguĂŻtĂ© Ă  la seule variable changĂ©e. En outre, en modifiant une variable Ă  la fois, on peut garder toutes les autres variables fixes Ă  leur centrale ou de valeurs de rĂ©fĂ©rence. Cela accroĂźt la comparabilitĂ© des rĂ©sultats (tous les "effets" sont calculĂ©s en rĂ©fĂ©rence au mĂȘme point "central" dans l'espace des entrĂ©es). La mĂ©thode OAT est souvent prĂ©fĂ©rĂ©e par les modĂ©lisateurs pour des raisons pratiques. Lorsque le modĂšle ne converge pas lors d'une analyse OAT, le modĂ©lisateur sait immĂ©diatement qui est le paramĂštre responsable de l'Ă©chec.

Cependant, malgré sa simplicité, cette approche ne permet pas d'explorer totalement l'espace des entrées. En effet, elle ne tient pas compte de la variation simultanée de variables d'entrée. Cela signifie que la méthode OAT ne peut pas détecter la présence d'interactions entre les variables d'entrée[20]. De plus, le choix de la valeur nominale et de l'échantillonnage peuvent poser problÚme. Par exemple, sur le modÚle avec la valeur nominale , l'influence de sera invisible par une méthode OAT.

MĂ©thodes locales

Les méthodes locales impliquent de prendre la dérivée partielle de la sortie Y par rapport à une entrée Xi:

oĂč l'indice indique que la dĂ©rivĂ©e est prise Ă  un point fixe dans l'espace des entrĂ©es (d'oĂč l'adjectif "local"). ModĂ©lisation adjointe[21] - [22] et DiffĂ©renciation automatisĂ©e[23] sont les mĂ©thodes de ce type. Semblables Ă  OAT, les mĂ©thodes locales n'essaient pas d'explorer l'espace des entrĂ©es. Elles examinent seulement les petites perturbations, gĂ©nĂ©ralement une variable Ă  la fois.

Les nuages de points

Un outil simple mais utile est de tracer des nuages de points de la variable de sortie en fonction de variables d'entrée, aprÚs que le modÚle a été évalué sur un échantillon aléatoire (respectant les distributions des entrées). L'avantage de cette approche est qu'elle s'applique aussi à des données. Elle donne aussi une indication visuelle directe de la sensibilité.

L'analyse par régression

L'analyse par rĂ©gression, dans le contexte de l'analyse de sensibilitĂ©, consiste Ă  utiliser les coefficients de rĂ©gression standardisĂ©s comme des mesures directes de la sensibilitĂ©. La rĂ©gression doit ĂȘtre linĂ©aire par rapport aux donnĂ©es. Sinon il est difficile d'interprĂ©ter les coefficients standardisĂ©s. Cette mĂ©thode est donc plus appropriĂ©e lorsque le modĂšle de rĂ©ponse est en fait linĂ©aire ; la linĂ©aritĂ© peut ĂȘtre confirmĂ©e, par exemple, si le coefficient de dĂ©termination est grand. Les avantages de l'analyse par rĂ©gression sont qu'elle est simple et a un faible coĂ»t de calcul.

DĂ©composition de variance

Les méthodes basées sur la décomposition de variance[24] - [25] - [26] considÚrent les entrées comme des variables aléatoires et s'intéressent seulement à la variance de la sortie. Celle-ci est décomposée en termes attribuables à une entrée ou à un groupe d'entrées. Les indices de sensibilité calculés sont les indices de Sobol : ils représentent la proportion de variance expliquée par une entrée ou un groupe d'entrées.

Pour l'entrée , l'indice de Sobol simple est donné par :

oĂč et dĂ©signent la variance et l'espĂ©rance (ou moyenne pondĂ©rĂ©e). L'indice de Sobol simple ne prend pas en compte l'incertitude causĂ©e par les interactions de avec les autres variables. Pour inclure toutes les interactions dans lesquelles est impliquĂ©e on utilise l'indice de Sobol total :

oĂč .

Les méthodes basées sur la décomposition de variance permettent d'explorer complÚtement l'espace des entrées et de prendre en compte les interactions ainsi que les réponses non linéaires. Pour ces raisons, elles sont largement utilisées. Le calcul des indices de Sobol nécessite de nombreuses évaluations du modÚle (de l'ordre du millier). Plusieurs estimateurs existent[27] - [28] - [29]. On recourt généralement à des méta-modÚles (émulateurs) pour rendre possible le calcul.

Screening

Les méthodes de "screening" s'appliquent à des modÚles de grande dimension pour lesquels on veut distinguer rapidement quelles entrées sont significatives, sans chercher l'exhaustivité. Il s'agit d'observer l'effet de perturbations élémentaires des entrées sur les sorties. La méthode de Morris[30] est une des plus connues.

Fourier Amplitude Sensitivity Test (FAST)

Le principe est d'approcher une fonction par des harmoniques en utilisant la transformation de Fourier. Les indices de Sobol sont alors exprimés analytiquement en fonction des coefficients de la série de Fourier[10].

PolynĂŽmes du chaos

Le principe est de projeter la fonction d'intĂ©rĂȘt sur une base de polynĂŽmes orthogonaux. Les indices de Sobol sont alors exprimĂ©s analytiquement en fonction des coefficients de cette dĂ©composition[31].

Références

  1. (en) Bertrand Iooss et Paul LemaĂźtre, Uncertainty Management in Simulation-Optimization of Complex Systems, Springer, Boston, MA, coll. « Operations Research/Computer Science Interfaces Series », (ISBN 978-1-4899-7546-1 et 9781489975478, DOI 10.1007/978-1-4899-7547-8_5, lire en ligne), p. 101–122
  2. A. Saltelli, « Sensitivity Analysis for Importance Assessment », Risk Analysis, vol. 22, no 3,‎ , p. 1–12
  3. A. Saltelli, M. Ratto, T. Andres, F. Campolongo, J. Cariboni, D. Gatelli, M. Saisana et S. Tarantola, Global Sensitivity Analysis : The Primer, John Wiley & Sons,
  4. D. J. Pannell, « Sensitivity Analysis of Normative Economic Models: Theoretical Framework and Practical Strategies », Agricultural Economics, vol. 16,‎ , p. 139–152 (DOI 10.1016/S0169-5150(96)01217-0)
  5. A. Bahremand et F. De Smedt, « Distributed Hydrological Modeling and Sensitivity Analysis in Torysa Watershed, Slovakia », Water Resources Management, vol. 22, no 3,‎ , p. 293–408 (DOI 10.1007/s11269-007-9168-x)
  6. M. Hill, D. Kavetski, M. Clark, M. Ye, M. Arabi, D. Lu, L. Foglia et S. Mehl, « Practical use of computationally frugal model analysis methods », Groundwater, vol. 54, no 2,‎ , p. 159–170 (DOI 10.1111/gwat.12330)
  7. M. Hill et C. Tiedeman, Effective Groundwater Model Calibration, with Analysis of Data, Sensitivities, Predictions, and Uncertainty, John Wiley & Sons,
  8. J. C. Helton, J. D. Johnson, C. J. Salaberry et C. B. Storlie, « Survey of sampling based methods for uncertainty and sensitivity analysis », Reliability Engineering and System Safety, vol. 91,‎ , p. 1175–1209 (DOI 10.1016/j.ress.2005.11.017)
  9. (en) Gaelle Chastaing, Fabrice Gamboa et ClĂ©mentine Prieur, « Generalized Hoeffding-Sobol decomposition for dependent variables - application to sensitivity analysis », Electronic Journal of Statistics, vol. 6,‎ , p. 2420–2448 (ISSN 1935-7524, DOI 10.1214/12-EJS749, lire en ligne, consultĂ© le )
  10. Julien JACQUES, Contributions à l'analyse de sensibilité et à l'analyse discriminante généralisée, Université Joseph-Fourier - Grenoble I, (lire en ligne)
  11. A. Saltelli et P. Annoni, « How to avoid a perfunctory sensitivity analysis », Environmental Modeling and Software, vol. 25,‎ , p. 1508–1517 (DOI 10.1016/j.envsoft.2010.04.012)
  12. (en) Fabrice Gamboa, Alexandre Janon, Thierry Klein et AgnĂšs Lagnoux, « Sensitivity analysis for multidimensional and functional outputs », Electronic Journal of Statistics, vol. 8, no 1,‎ , p. 575–603 (ISSN 1935-7524, DOI 10.1214/14-EJS895, lire en ligne, consultĂ© le )
  13. Amandine Marrel, Bertrand Iooss, François Van Dorpe et Elena Volkova, « An efficient methodology for modeling complex computer codes with Gaussian processes », Computational Statistics & Data Analysis, vol. 52, no 10,‎ , p. 4731–4744 (DOI 10.1016/j.csda.2008.03.026, lire en ligne, consultĂ© le )
  14. (en) Amandine Marrel, Bertrand Iooss, SĂ©bastien Da Veiga et Mathieu Ribatet, « Global sensitivity analysis of stochastic computer models with joint metamodels », Statistics and Computing, vol. 22, no 3,‎ , p. 833–847 (ISSN 0960-3174 et 1573-1375, DOI 10.1007/s11222-011-9274-8, lire en ligne, consultĂ© le )
  15. A. O'Hagan et al., Uncertain Judgements : Eliciting Experts' Probabilities, Chichester, Wiley, (lire en ligne)
  16. J. Sacks, W. J. Welch, T. J. Mitchell et H. P. Wynn, « Design and Analysis of Computer Experiments », Statistical Science, vol. 4,‎ , p. 409–435
  17. J. Campbell et al., « Photosynthetic Control of Atmospheric Carbonyl Sulfide During the Growing Season », Science, vol. 322, no 5904,‎ , p. 1085–1088 (PMID 19008442, DOI 10.1126/science.1164015, Bibcode 2008Sci...322.1085C)
  18. R. Bailis, M. Ezzati et D. Kammen, « Mortality and Greenhouse Gas Impacts of Biomass and Petroleum Energy Futures in Africa », Science, vol. 308,‎ , p. 98–103 (PMID 15802601, DOI 10.1126/science.1106881, Bibcode 2005Sci...308...98B)
  19. J. Murphy et al., « Quantification of modelling uncertainties in a large ensemble of climate change simulations », Nature, vol. 430,‎ , p. 768–772 (PMID 15306806, DOI 10.1038/nature02771, Bibcode 2004Natur.430..768M)
  20. Czitrom, « One-Factor-at-a-Time Versus Designed Experiments », American Statistician, vol. 53, no 2,‎ (lire en ligne)
  21. Dan G. Cacuci, Sensitivity and Uncertainty Analysis : Theory, vol. I, Chapman & Hall
  22. Dan G. Cacuci, Mihaela Ionescu-Bujor et Michael Navon, Sensitivity and Uncertainty Analysis : Applications to Large-Scale Systems, vol. II, Chapman & Hall,
  23. A. Griewank, Evaluating Derivatives, Principles and Techniques of Algorithmic Differentiation, SIAM,
  24. Sobol', I. (1990). Sensitivity estimates for nonlinear mathematical models. Matematicheskoe Modelirovanie 2, 112–118. in Russian, translated in English in Sobol' , I. (1993). Sensitivity analysis for non-linear mathematical models. Mathematical Modeling & Computational Experiment (Engl. Transl.), 1993, 1, 407–414.
  25. T. Homma et A. Saltelli, « Importance measures in global sensitivity analysis of nonlinear models », Reliability Engineering and System Safety, vol. 52,‎ , p. 1–17 (DOI 10.1016/0951-8320(96)00002-6)
  26. Saltelli, A., K. Chan, and M. Scott (Eds.) (2000). Sensitivity Analysis. Wiley Series in Probability and Statistics. New York: John Wiley and Sons.
  27. Alexandre Janon, Thierry Klein, AgnĂšs Lagnoux et MaĂ«lle Nodet, « Asymptotic normality and efficiency of two Sobol index estimators », ESAIM: Probability and Statistics, vol. 18,‎ , p. 342–364 (ISSN 1292-8100 et 1262-3318, DOI 10.1051/ps/2013040, lire en ligne, consultĂ© le )
  28. Andrea Saltelli, Paola Annoni, Ivano Azzini et Francesca Campolongo, « Variance based sensitivity analysis of model output. Design and estimator for the total sensitivity index », Computer Physics Communications, vol. 181, no 2,‎ , p. 259–270 (DOI 10.1016/j.cpc.2009.09.018, lire en ligne, consultĂ© le )
  29. Art B. Owen, « Better Estimation of Small Sobol' Sensitivity Indices », ACM Trans. Model. Comput. Simul., vol. 23, no 2,‎ , p. 11:1–11:17 (ISSN 1049-3301, DOI 10.1145/2457459.2457460, lire en ligne, consultĂ© le )
  30. Max D. Morris, « Factorial Sampling Plans for Preliminary Computational Experiments », Technometrics, vol. 33, no 2,‎ , p. 161–174 (ISSN 0040-1706, DOI 10.1080/00401706.1991.10484804, lire en ligne, consultĂ© le )
  31. Bruno Sudret, « Global sensitivity analysis using polynomial chaos expansions », Reliability Engineering & System Safety, bayesian Networks in Dependability, vol. 93, no 7,‎ , p. 964–979 (DOI 10.1016/j.ress.2007.04.002, lire en ligne, consultĂ© le )

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.