Gouverner la donnée : Un passage obligé

    A l’heure des Big data et de la prolifération de la donnée, gouverner la data devient une préoccupation à maîtriser rapidement. Elle l’est davantage dans un contexte de fusions/acquisitions mettant en scène des sources multiples et généralement cloisonnées.

    Les spécialistes de tous bords vous le diront, pendant longtemps, l’une des faiblesses des porteurs de risques résidait en leur incapacité à mettre en place des architectures techniques et applicatives ouvertes. Rien ne prouve que cette réalité ait changé définitivement. Pour des besoins opérationnels (lancement de nouveaux produits, connaissance client, etc.), les assureurs ont mis en place, au fil des ans, des couches applicatives hétérogènes. A l’arrivée, chaque métier fonctionne au sein d’une entité à part entière, sans échange avec les autres. Cloisonnement.

    Résultat, une très mauvaise connaissance du client renforcée dans le cadre de rapprochements. Un assuré a ainsi « la chance » d’être répertorié plusieurs fois dans le même système d’information, sachant que les modules de celui-ci ne communiquent pas entre eux. De ce point de vue, on a souvent parlé d’architecture orientée contrat. Comment la recentrer sur le client ? Vaste enjeu abordé depuis près de deux décennies, sans être épuisé.

    Les projets de rapprochements ont été une aubaine pour certains assureurs de mettre en place un référentiel unique de la donnée, pivot du système d’information cible. Cela passe par la gestion de la qualité de la donnée qui signifie qualification des différentes bases clients et rationalisation des fichiers des assurés en vue de traquer les doublons. Corollaire, la formalisation d’une base de données unique permettant de bénéficier d’une vision du client à 360°. A l’heure où l’on parle de personnalisation des offres, on peut mesurer facilement l’apport d’une telle démarche sensible, qui rend l’entreprise Data driven, en claire une structure gouvernée par la donnée.

    Réalisée à partir d’outils du marché ou d’utilitaires développés en interne, cette démarche d’optimisation du traitement de la donnée constitue une marche importante vers les projets actuels que sont la plongée vers les Big data et l’ouverture généralisé à l’écosystème (partenaires, distributeurs, etc.). Pour mener à bien un tel projet, il est nécessaire de désigner un patron de la donnée qui la gouverne. Il peut aujourd’hui s’agir du Chief data Officer (CDO) ou du Chief Information Officer (CIO).

    Peu importe l’acronyme retenu, cette fonction veille sur la qualité de la donnée, son exploitation et son enrichissement dans un contexte du digital généralisé. Là où plusieurs bases de données issues de différentes entités créaient le flou au sein de l’entreprise, un référentiel unique constitue le premier pas vers une connaissance avancée du client et une prise de décision éclairée. Consommatrice de temps, cette opération constitue l’un des chantiers critiques d’un projet de rapprochement.

    Selon certains observateurs, une mauvaise qualité de la donnée a même été parfois déterminante dans la décision de certains acteurs de fusionner ou pas avec une entité équipée de données mal gérées. Normal, quand on sait que celle-ci constitue, plus que jamais, la matière première du secteur de l’assurance.

    M. E.

    Que pensez-vous du sujet ?