L’éthique et l’actuaire : pour une éthique actuarielle de l’usage des données à l’ère du big data (1)

29 mars 2021  | Par Collectif
L'actuariel // Le cercle // L’éthique et l’actuaire : pour une éthique actuarielle de l’usage des données à l’ère du big data (1)

Depuis des siècles, les actuaires élaborent de nouvelles façons d’affronter l’adversité : ils réalisent des calculs. Parce que mathématiques, ces derniers se veulent objectifs et équitables. Mais le sont-ils vraiment ? La pratique actuarielle a évolué au fil du temps et intégré des conceptions changeantes de l’équité. La lecture des Proceedings de l’association américaine des actuaires non-vie (2) tout au long du XXe siècle est à ce titre très instructive : on y voit comment, travaillant au départ avec peu de moyens, les actuaires se guidaient sur une logique très solidaire. Vers le milieu du siècle, les données et les techniques se raffinent et se fait jour alors l’idée d’une segmentation qui permettrait d’ajuster la prime au risque individuel (3). Aujourd’hui, un nouveau pas dans cette « personnalisation » semble franchi avec les données massives et les algorithmes qui les accompagnent. D’une part, les données n’ont jamais paru à la fois aussi facilement disponibles et exhaustives, notamment lorsqu’elles ont trait au comportement des personnes. D’autre part, et paradoxalement, la réglementation a évolué ou a été réinterprétée, empêchant l’usage de certaines variables – aussi significatives soient-elles statistiquement – et poussant l’actuaire vers des modèles toujours plus raffinés et complexes (4). L’usage de ces données individuelles et comportementales, couplé à des méthodes plus opaques et à la volonté affirmée de « personnalisation », apporte son lot de défis et de questionnements éthiques, objet de ce papier.

L’opacité de l’intelligence artificielle

L’intelligence artificielle (IA) est un terme qui remonte à l’après-guerre mais qui connaît depuis peu un rebond grâce aux évolutions technologiques (capacités de calcul et libération de la donnée) (5). Ces procédés sont aujourd’hui en plein essor à tous les niveaux de l’entreprise (RH, marketing, gestion, actuariat). Ils permettent d’automatiser des analyses de données avec un niveau de performance de plus en plus élevé, allant jusqu’à dépasser les capacités humaines sur certaines tâches précises, ou les augmenter par des outils d’aide à la décision.

L’idée sous-jacente à ces algorithmes est de reproduire, tout au moins formellement, le mode de fonctionnement du cerveau. Mais, face à l’humain, qui apprend dans un contexte cognitif et émotionnel précis, la machine est finalement extrêmement limitée : elle a besoin de millions d’images pour apprendre, là où l’enfant saisit en quelques exemples (6). Surtout, elle porte en elle une dimension « boîte noire » qui fait que l’on peut obtenir parfois de très bons résultats, sans totalement comprendre comment ces derniers ont été obtenus. De ce fait, l’IA actuelle reste tributaire du jugement humain ; il faut être précautionneux sur l’information transmise à l’algorithme car, si vous lui en donnez trop, il pourrait créer des corrélations là où il n’y en a pas (phénomène de l’overfitting). De plus, alors que par le passé la rareté de l’information impliquait toujours un choix réfléchi de la part de l’actuaire, le big data rend possibles un usage aveugle des données et la reproduction par l’algorithme de biais sociaux discriminants. L’intervention de l’expert actuaire reste ainsi essentielle dans le choix en amont des variables de l’analyse ainsi que des techniques et des algorithmes mis en œuvre pour garantir la maîtrise, la transparence et l’interprétabilité des décisions.

L’éthique actuarielle : quelques principes

Cette question du choix lorsque les données sont pléthoriques n’est pas sans poser ses propres problèmes. En effet la pratique professionnelle de l’actuaire, comme celle de n’importe qui d’autre, met en jeu son identité. Celle-ci se construit dans le temps autour de quatre pôles ou domaines d’expérience : son éducation, son savoir, sa culture et son vécu personnel. Ces quatre piliers contribuent à construire un système de valeurs qui guide, consciemment ou non, sa prise de décision et forme son jugement du bien et du mal, de l’acceptable ou de l’inacceptable. Mais il peut parfois être confronté à des conflits de valeurs qui heurtent ou qui interrogent sa morale, souvent sans réponse. De plus, sa morale est toujours particulière. Le philosophe Michael Walzer montre ainsi que, au-delà d’un noyau universel, la morale reste profondément ancrée dans la culture des uns ou des autres (7). C’est ici que des principes éthiques – qui relèvent plus de vertus posturales que de valeurs, comme, par exemple, le courage ou la prudence – peuvent répondre à ce questionnement individuel (tels que définis par la Commission européenne) (8).

  • Principe de respect des droits fondamentaux : « Assurer une conception et une mise en œuvre des outils et des services d’intelligence artificielle qui respectent ces droits. » Prudence donc lorsque l’on manipule des données sensibles ou personnelles.
  • Principe d’équité : « Prévenir spécifiquement la création ou le renforcement de discrimination de certains individus ou groupes d’individus. » Vigilance, notamment dans l’évaluation en amont des biais potentiels contenus dans certaines données.
  • Principe de qualité et de sécurité : ce principe, posé par la Commission pour les décisions juridictionnelles et les décisions judiciaires, se généralise facilement à d’autres domaines. On recommande ainsi à l’actuaire d’utiliser des sources fiables et des modèles « conçus de manière multidisciplinaire, dans un environnement technologique sécurisé ».
  • Principe de transparence, de neutralité et d’intégrité intellectuelle : « Rendre accessibles et compréhensibles les méthodologies de traitement des données, autoriser les audits externes. » Il est recommandé à l’actuaire d’entraîner des modèles explicables globalement et localement, permettant une interprétation simple de ses décisions fonctionnelles.
  • Principe de maîtrise par l’utilisateur : « Bannir une approche prescriptive et permettre à l’usager d’être un acteur éclairé et maître de ses choix. »

Au-delà de ces principes, la déontologie professionnelle peut aussi venir en aide à l’actuaire. Il s’agit d’un corpus de règles et de normes établies pour aider à la prise de décision et prévenir les biais. Ces règles, établies collectivement, relèvent de l’engagement et du devoir de l’individu, qui se contraint à appliquer les règles du groupe professionnel auquel il appartient.

L’éthique actuarielle par les normes

En ce qui concerne les données, l’actuaire et la fonction actuarielle sont fortement impliqués dans leur gouvernance par la réglementation européenne à travers Solvabilité II. L’Autorité de contrôle prudentiel et de résolution (ACPR) veille à ce que l’actuaire soit le garant de la qualité des données avec à la clé un enjeu de fiabilité de ses travaux de tarification et de provisionnement, et de calcul des ratios de solvabilité. Aussi, la directive Solvabilité II propose depuis sa mise en œuvre au 1er janvier 2016 un cadre explicite sur la qualité des données, en indiquant les trois critères de qualité que sont leur caractère approprié, leur exhaustivité et leur exactitude (9).

Par ailleurs, l’actuaire est sous l’œil de la Commission nationale de l’informatique et des libertés (Cnil) en la personne du data protection officer de son organisation, dans toutes ses utilisations de données, qui doivent respecter le règlement général pour la protection des données (RGPD), applicable depuis mai 2018. Ce règlement demande que cinq principes explicites soient respectés : finalité, proportionnalité, durée de conservation limitée, sécurisation et confidentialité, droit des personnes (10). Enfin, à ces outils réglementaires s’ajoutent des outils professionnels établis par l’Institut des actuaires pour donner à ses membres des règles de conduite qui sont autant de légitimité sur l’homogénéité, la qualité et le caractère scientifique des travaux pour les employeurs et les clients mais aussi, depuis l’application du RGPD, un gage de confiance pour le grand public dans l’usage des données que fait l’actuaire. Ces outils incluent notamment :

  • Le code de déontologie, généraliste, qui rappelle cinq valeurs essentielles que sont l’intégrité, le professionnalisme, la conformité, mais aussi la confraternité et la discipline.
  • La norme NPA 5 (norme de pratique actuarielle) (11), plus spécifique aux données massives et aux données personnelles de santé. En tant que norme de niveau 3, elle est fortement recommandée par l’Institut. Aussi, lorsqu’il choisit de ne pas la respecter, l’actuaire doit être en mesure de justifier sa position.

Le big data et l’IA sont incontestablement une opportunité pour les actuaires, mais ils comportent de nouveaux dan-gers. En adaptant son éthique professionnelle à cette situa-tion inédite, l’actuaire contribuera peut-être à rendre notre société meilleure pour tous. Comme le dit Paul Ricœur, « une vie éthique est une vie bonne, avec et pour autrui, dans des institutions justes ».

Les opinions exprimées dans cet article n’engagent que leurs auteures.

 

Laurence BARRY,

Co-titulaire de la chaire PARI (ENSAE/Sciences Po), actuaire certifiée IA

Amina BOURAS,

Chief Data Officer chez PROBTP, actuaire certifiée, membre de la commission de déontologie de l’Institut des actuaires

Carole MENDY,

Actuaire certifiée IA – expert DSA, Actuaire Conseil et vice-présidente de l’Institut des actuaires

 

Références :

1 – Cet article est inspiré de l’atelier de travail présenté par Carole Mendy, Laurence Barry, Amina Bourras et Marc-Antoine Ledieu lors de la journée Actuaires actifs du congrès des actuaires 2020 (9/11/20).

2 – La Casualty Actuarial Society (CAS).

3 – Laurence Barry, « Justice ou justesse ? L’équité de l’assurance », Working Paper (Paris: Chaire PARI, 2019). Pour l’introduction d’une logique similaire en France via la Direction des assurances, voir Julien Caranton, « Quand le réformisme conservateur gagne les assurances. La Direction des assurances et le juste prix de la responsabilité civile automobile (décennies 1960-1970) », Working Paper (Paris: Chaire PARI, 2020).

4 – European Commission, « Des lignes directrices de la Commission européenne à l’intention du secteur européen des assurances : garantir l’égalité de traitement entre les hommes et les femmes en ce qui concerne les primes d’assurance », Text, December 22, 2011, https://ec.europa.eu/commission/presscorner/detail/fr/IP_11_1581.

5 – Dominique Cardon, Jean-Philippe Cointet and Antoine Mazières, « La revanche des neurones », Réseaux n° 211, n° 5 (November 16, 2018): 173–220.

6 – Stanislas Dehaene, Yann Le Cun and Jacques Girardon, La Plus Belle Histoire de l’intelligence (Robert Laffont, 2018).

7 – Michael Walzer, Thick and Thin: Moral Argument at Home and Abroad (Indianapolis: University of Notre Dame Press, 1994).

8 – https://rm.coe.int/charte-ethique-fr-pour-publication-4-decembre-2018/16808f699b

9 – https://www.institutdesactuaires.com/magazine/article/solvabilite-ii-la-qualite-des-donnees-un-chantier-crucial/2249

https://eur-lex.europa.eu/eli/dir/2009/138/2019-01-13.

10 – European Commission, règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016.

https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:02016R0679-20160504&from=EN.

11 – https://www.institutdesactuaires.com/article/normes-1067

12 – Paul Ricœur, Soi-même comme un autre (Paris, Points, 2015).

Se connecter