L’intelligence artificielle prépare son passage à l’« Act »

28 septembre 2023  | Par Jessica BERTHEREAU
L'actuariel // Métier // Technique // L’intelligence artificielle prépare son passage à l’« Act »

Après plusieurs années à évoluer sans cadre, l’intelligence artificielle sera régulée par l’Union européenne via l’AI Act. L’assurance se confronte aux défis et ambiguïtés de ce projet, dont le périmètre et les impacts sont encore discutés.

« Dans un secteur comme l’assurance, où les données sont la matière première et l’analyse des données le principal outil de travail, il n’est pas surprenant que l’intelligence artificielle joue un rôle central dans la transformation numérique du secteur», signalait la présidente de l’Eiopa, Petra Hielkema, dans une tribune au magazine Eurofi en avril 2023. De fait, l’usage des techniques d’intelligence artificielle (IA) se répand dans l’assurance, que ce soit pour améliorer les relations clients, automatiser les parcours de souscription et d’indemnisation, ou encore détecter la fraude. En matière purement actuarielle, l’IA intervient principalement à deux niveaux : sur les données, en offrant par exemple la possibilité de travailler avec des données non structurées ; et au niveau des modèles de tarification, pour améliorer, voire remplacer, les traditionnels GLM (generalised linear models).

Une réglementation fondée sur les risques

Cet usage croissant de l’IA s’observe dans de nombreux autres secteurs. Ces systèmes techniques fascinent autant par leur potentiel qu’ils inquiètent par leurs dérives possibles : surveillance de masse, manipulation de l’opinion, etc. Des risques qui ont poussé les législateurs à agir. «Il est intéressant d’observer qu’une sorte de tsunami s’est produit avec l’arrivée de ChatGPT en novembre 2022. Beaucoup de pays sont subitement passés d’un modèle sans régulation de l’IA ni véritable réflexion sur son utilisation à un modèle qui se veut beaucoup plus contraignant. C’est un défi, car il est difficile de poser des frontières a posteriori à toute une série de pratiques qui se sont développées dans un vide réglementaire », relève Steve Jacob, professeur en sciences politiques à l’université Laval et membre de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA).

Vous souhaitez lire la suite de l’article ?

Achat de l'article

Acheter

Abonnement

S'abonner

Mon compte

Interview

Marguerite Saucé, actuaire associée IA

Marguerite Saucé, actuaire associée IA, lauréate du Prix des Sciences du Risque pour son mémoire d’actuariat « IA et éthique en assurance : une nouvelle solution pour atténuer la discrimination par proxy dans la modélisation du risque »

En quoi les modèles d’assurance questionnent-ils l’éthique ?

M. Saucé: La discrimination peut être directe ou indirecte. La première est évitable, car il s’agit de ne pas utiliser de données dites sensibles ou protégées (par exemple, le genre ou la nationalité) dans les modèles actuariels, mais la seconde est plus compliquée à traiter. Si les variables non sensibles ont une relation de dépendance avec les variables sensibles, ce qui est presque toujours le cas, les modèles peuvent déduire ces dernières et maintenir un traitement injuste. Nous pouvons par exemple détecter le genre à partir d’une combinaison d’informations (comme le métier ou le salaire) à cause de réalités statistiques observables.

Comment corriger cela ?

M. Saucé: Les modèles seront toujours susceptibles de discriminer « indirectement » les individus grâce à ces interactions latentes entre variables qui apportent de meilleures performances et donc une meilleure quantification des risques, une meilleure segmentation des prix, etc. De plus, si les informations sensibles ne sont pas connues, il est presque impossible de vérifier s’il y a discrimination. L’AI Act prend justement en compte la nécessité de collecter ces données pour pouvoir calculer des métriques d’équité statistique et expliciter les résultats par groupe et sous-groupe dans le but de contrer les potentiels biais des modèles. On peut ainsi mesurer les écarts des résultats des modèles, entre les hommes et les femmes par exemple.

Quelle difficulté avez-vous rencontrée pour bâtir votre solution anti-discrimination ?

M. Saucé: Il existe de nombreuses manières de mesurer statistiquement l’équité, mais elles ne sont pas toutes compatibles, car l’équité est un thème philosophique assez complexe, dépourvu de définition universelle. Les régulateurs demandent aux actuaires d’avoir des modèles équitables, mais ils ne précisent pas encore quelle définition utiliser. J’ai alors décidé d’utiliser une définition d’équité de groupe (la parité statistique) pour développer une méthode de prétraitement visant à atténuer la discrimination indirecte.

Note

Calendrier réglementaire

  • Avril 2021 Publication par la Commission européenne du projet de règlement européen « Artificial Intelligence Act »
  • Décembre 2022 Le Conseil de l’Union européenne adopte sa position commune sur l’AI Act
  • Juin 2023 Le Parlement européen adopte sa position de négociation sur l’AI Act (499 votes pour, 28 contre et 93 abstentions)
  • Deuxième semestre 2023 Négociations interinstitutionnelles (trilogue) entre la Commission, le Parlement et le Conseil sur l’AI Act
  • 2025 Date possible de l’entrée en vigueur de l’AI Act
Rebond

Vers une responsabilité civile de l'IA ?

En parallèle du règlement sur l’intelligence artificielle, la Commission européenne a présenté, en septembre 2022, une directive sur la responsabilité en matière d’IA. «L’obligation d’assurer les systèmes d’IA est une option envisagée par la Commission, mais en pratique cela n’interviendra probablement qu’après la finalisation de l’AI Act», observe Nicolas Marescaux, actuaire certifié IA et directeur adjoint Réponses Besoins Sociétaires & Innovation à la Macif. Si les systèmes d’IA se voient attribuer une personnalité juridique limitée, il pourrait y avoir trois conséquences : «La possible reconnaissance d’une responsabilité civile personnelle de l’intelligence artificielle, la constitution d’un patrimoine propre à cette dernière et la mise en place au sein de contrats d’assurance de garanties relatives à cette responsabilité nouvelle», relève-t-il.