Tribune : La mise en œuvre de processus “industriels” en ligne de mire pour Solvabilité 2

Cette contribution, qui traite du sujet de Solvabilité II et des processus à mettre en place, émane d’Optimind Winter, société de conseil en actuariat et gestion des risques. Elle a été rédigée par Tristan Palerm, directeur métier Actuariat conseil, Christel Albouy Nallard, directrice métier Finance et Performance et Jérôme Rave, senior manager Finance et Performance.

Cette fois, ça y est“, serait-on tenté de dire. Avec une date d’entrée en vigueur enfin confirmée pour le 1er janvier 2016, le dispositif Solvabilité 2 émerge enfin du domaine de l’hypothétique, s’affranchit des spéculations pour prendre les contours d’une réalité chaque jour plus concrète. Les travaux Solvabilité 2 deviennent dès lors des tâches à planifier et à rationaliser dans le cadre de processus cohérents et articulés, permettant de sécuriser la production et de garantir la qualité de livrables obligatoires.

Pourquoi organiser les processus S2 ?

Au même titre que pour les travaux comptables ou de calcul de la valeur, qui relèvent déjà du quotidien des assureurs, l’enjeu est désormais d’organiser la mue des processus S2 existants – non encore matures car non compatibles avec les exigences cibles en termes de complétude, qualité et délais du reporting – vers une logique véritablement « industrielle » où la production des données prudentielles est fiabilisée, adaptée à la fréquence trimestrielle imposée par le régulateur, économe en ressources consommées et cohérente avec les autres processus de production de la fonction chiffres (qui regroupe les travaux et les livrables des directions financières et des risques).

Qu’est-ce qu’un processus ?

Dans une époque où il est souvent fait appel à la notion de processus sans que celle-ci ne soit clairement exprimée ni partagée, il importe d’en proposer une définition non ambiguë.
Un processus se définit avant tout par le ou les livrables au(x)quel(s) il permet d’aboutir. Il consiste en une succession ordonnée de tâches qui permettent de collecter, traiter et restituer des flux d’informations. Il emporte la définition des objectifs à atteindre et des niveaux de performance attendus en termes de délais, fréquence, qualité et ressources consommées.
Tout processus est un outil à la main des managers opérationnels, consistant en un mode opératoire de mobilisation de ressources en vue de l’atteinte d’objectifs prédéfinis.
La conception des processus est donc le moment où le manager opérationnel façonne les SI et coordonne les travaux de ses équipes. Il définit les fonctionnalités et les performances attendues des outils.

Bonnes pratiques observées dans la conception des processus S2

Pour une mise en œuvre des processus S2 réussi :

1. Définir clairement les objectifs et les performances attendues des processus
Des objectifs clairs sont indispensables à la mesure de la performance et au pilotage des processus. La formalisation et le partage de quelques indicateurs clés permettent également d’inscrire les processus opérationnels dans une logique client-fournisseur et ainsi de mobiliser l’ensemble de l’organisation vers l’atteinte d’objectifs communs.

2. Se doter d’une gouvernance claire et partagée
Afin d’être pleinement efficaces, les processus doivent s’appuyer sur une gouvernance non-ambiguë, assumée par un nombre limité de managers opérationnels : les « process owners ». Ces « process owners », qui doivent être choisis en fonction des réalités opérationnelles de l’entreprise (périmètres de responsabilité, maîtrise des ressources et des Systèmes d’Information), auront pour charge de piloter les processus et de prendre toute disposition corrective quant à une éventuelle non atteinte des niveaux de performance convenus.

Dimensionner et rationaliser le processus en cohérence avec les moyens et les contraintes de l’entreprise

La documentation et le partage des travaux à accomplir par l’organisation et des SI mobilisables pour ce faire, associés à une gestion articulée et cohérente (voire centralisée) des référentiels, permettent de construire des processus fluides, où les circuits des flux d’information sont optimisés.
Plus largement, l’entreprise d’assurance doit s’assurer qu’elle dispose d’une infrastructure correctement proportionnée à ses processus et aux objectifs qui leur sont assignés.
Cela ne signifie pas que multiplier les serveurs et cœurs de calcul des outils de modélisation est l’unique réponse aux écueils calculatoires.

Au contraire, plusieurs pistes alternatives peuvent être approfondies :
Travailler sur les méthodologies : dans un calcul ORSA par exemple, quelle est la pertinence de multiplier les simulations à l’infini et de mobiliser des dizaines, voire des centaines de cœurs de calcul ? Dorénavant, le marché converge vers une réponse pragmatique et opérationnelle consistant en la mise en œuvre d’approches dites “multi-déterministes”, favorisant l’étude de scénarios déterministes, aux dépens des approches dites “de simulations dans les simulations”.

Travailler sur les modèles : les modèles mis en place sont bien souvent le fruit de plusieurs années de développements successifs où les fonctionnalités ont été ajoutées, de façon non optimisée, par des utilisateurs métier plutôt que par des développeurs de métier. Du fait d’un manque de connaissance des techniques de développement, les ajouts successifs se font sans optimisation réelle du code. Sur une itération de calcul, la perte de temps est infinitésimale, insensible. Mais sur un processus impliquant plusieurs millions d’itérations dans un cadre stochastique, il n’est plus possible de la négliger. A l’aide d’une rétro-documentation adéquate et en mobilisant des ressources spécialisées, des gains substantiels en temps de calcul sont envisageables (il n’est pas rare d’observer des gains de temps pouvant aller jusqu’à 20%, voire 50% dans certains cas).

Travailler sur les données : par exemple, l’agrégation des model points a souvent été conçue mais non optimisée : la segmentation du portefeuille (par exemple, la définition de tranches d’âge pour l’agrégation de données) est encore rarement analysée de façon détaillée. Le nombre de model points peut parfois être largement revu pour limiter la quantité de données en entrée du modèle, avec une perte d’information minimale et contrôlée. Des réflexions récentes ont ainsi été menées pour permettre d’optimiser les jeux de données, à l’aide de techniques de classification ascendante hiérarchique ou d’agrégation autour de centres mobiles.

3. S’appuyer sur l’existant pour favoriser la mutualisation des ressources
Des processus organisés et performants, traitant en grande partie des mêmes données sources, existent déjà dans l’entreprise : les processus comptables, de gestion des actifs ou bien encore de calcul de la Valeur… Les processus S2 doivent être conçus, lorsque cela est possible, comme des compléments aux processus existants, afin notamment de garantir la cohérence inter-normes et permettre une communication financière véritable multinormes. Bien entendu, certaines opérations seront propres au processus S2 étudié, mais les points d’adhérence demeurent nombreux avec d’autres processus existants : ceci permet d’identifier et de faire fructifier les pistes de rationalisation.

4. Concevoir des processus S2 transverses aux 3 piliers de la directive
Les investissements consentis à destination des piliers 1 et 3, que ce soit en termes de modèles et d’outils calculatoires ou bien de dispositif de maîtrise des risques, ne donneront les résultats escomptés que s’ils sont organisés dans le cadre de processus opérationnels permettant la production de l’ensemble des livrables requis par le régulateur.
Ainsi, la conception et la formalisation des processus – via notamment l’identification des données sources et des échanges de données entre les différents métiers contributeurs – permettent de mettre en application la gouvernance définie dans le cadre du pilier 2.
De la même façon, la mise en qualité des données doit s’intéresser à l’ensemble de la chaine de production des données prudentielles, de la collecte des données sources à leurs transformations puis à leur utilisation au sein de « produits finis ». L’approche par les processus est la seule à même d’apporter la vision d’ensemble et le synthétisme nécessaires indispensables à la mise en œuvre d’une politique de mise en qualité des données.

5. Privilégier les solutions pragmatiques
Le bon sens doit primer tout au long des travaux de conception des processus Solvabilité 2. A titre d’illustration, la définition de règles simples quant à l’utilisation des outils de modélisation peut conditionner l’atteinte des objectifs des processus S2.
Dans la mesure où la plupart des entreprises s’appuient – de façon logique et rationnelle – sur un seul outil de modélisation pour mener aussi bien des calculs Solvabilité 1 (FAR, PGG, C6bis) que des calculs Solvabilité 2 (Pilier 1 et Pilier 2) et que ces outils sont disponibles de façon limitée au sein de l’entreprise (en général en fonction du nombre de licences retenu), il est indispensable de planifier les travaux de la façon la plus efficace possible afin d’éviter les engorgements.
Ce besoin de planification ira croissant avec la réduction des délais de production du reporting réglementaire et la multiplication des travaux calculatoires complexes (notamment du fait de la comptabilisation en Juste Valeur des passifs d’assurance prévue par la future phase 2 de la norme IFRS 4).

Perspectives

L’entrée en vigueur de Solvabilité 2, de par la lourdeur des travaux que cette directive induit, mais également du fait de la sollicitation de ressources déjà mobilisées par des processus préexistants (processus comptables, calcul de la valeur, gestion d’actifs…) et de l’enchevêtrement des exercices annuels et trimestriels, pose avec une acuité nouvelle la question de l’optimisation des processus de production des données comptables et prudentielles.

Confrontés à une multiplication inédite des données à produire et à des exigences nouvelles en termes de qualité des données, de nombreux acteurs du secteur de l’assurance s’engagent dans des démarches de type “Fast & Quality Close” afin de produire plus de données, de meilleure qualité, dans des délais réduits et ce à ressources contraintes.
Il y a fort à parier qu’avec les avancées récentes enregistrées sur la phase 2 d’IFRS 4, cette tendance n’ira qu’en se renforçant.

Tristan Palerm, Christel Albouy Nallard et Jérôme Rave, Optimind Winter

Que pensez-vous du sujet ?