Dawizz a Blueway company
Vos enjeux Ressources Qui sommes-nous ? Demander une démo

IAX et DATA Governance : le combo gagnant pour une IA éthique et transparente !

23 février 2023

Louis Perrodo

Cybersécurité Gouvernance Data Ethic cybersecurity

L'intelligence artificielle est au cœur des préoccupations de notre société aujourd’hui : les systèmes de recommandation des plateformes, la conduite autonome, ou encore les IA génératives conversationnelles telles que ChatGPT et Google Bard.

Toutefois, ces IA agissent souvent comme des boîtes noires, rendant difficile la compréhension de leur raisonnement amenant à prendre une décision ou faire une prédiction. C'est pourquoi il est important de promouvoir les notions d'éthique afin d’assurer la sécurité et l'intégrité des utilisateurs par rapport à la gouvernance des données utilisées pour entraîner ces modèles. De plus, il est essentiel d'être en mesure de « ouvrir la boîte noire » et de rendre leur inférence explicable.

L’intelligence artificielle explicable (XAI)

L'intelligence artificielle explicable (XAI) est une approche qui permet de comprendre les résultats et les conclusions des algorithmes d'apprentissage automatique, de caractériser leur précision et leurs biais potentiels, et de garantir la confiance des utilisateurs. Les modèles d'IA en "boîte noire", très complexes à interpréter, posent des défis pour comprendre comment l'algorithme est arrivé à un résultat. Des algorithmes d’IA ont déjà fait preuve de biais par le passé souvent liés à l’ethnie, au sexe ou encore à la religion lors de leur utilisation.

Par exemple, en 2022, le chatbot développé par Meta, BlenderBot3 a eu des propos racistes après quelques jours seulement d’utilisation du grand public. Comment est-ce arrivé ? Les données de production différaient des données d'entraînement.

Les avantages de l’explicabilité des IA sont notables :

  • Fiabilité accrue: En expliquant les caractéristiques et la justification de la sortie de l'IA, les humains sont plus susceptibles de faire confiance au modèle d'IA, ce qui renforce la fiabilité de l'IA.
  • Conformité réglementaire : Dans des secteurs tels que la finance et la santé, l'intégration de modèles d'apprentissage automatique dans des stratégies complexes d'évaluation des risques peut être nécessaire pour se conformer aux exigences réglementaires en matière de gestion des risques.
  • Justification éthique et suppression des préjugés : L'IA explicable étant transparente et plus facilement déboguable, les préjugés inconscients peuvent être évités et les décisions éthiques peuvent être expliquées.
  • Informations exploitables et robustes : L'IA et l'apprentissage automatique offrent la possibilité d'obtenir des informations exploitables et robustes, mais l’IA explicable permet aux humains de comprendre comment et pourquoi l'algorithme a pris une décision qui lui semble être la meilleure. L’IA explicable a beaucoup de potentiel dans certains domaines où elle favorise la confiance de l’utilisation d’intelligence artificielle. Ces domaines sont :
  • La santé : afin d’établir des diagnostics en toute transparence en traçant la prise de décision pour les soins aux patients.
  • Les services financiers : en encourageant la fiabilité de leur utilisation dans l’approbation de prêt ou de crédit.
  • La justice et les enquêtes policières : par l’accélération de la prise de décisions d’analyse d’ADN, en comprenant les éléments justifiant ces dernières.
  • La conduite autonome : comprendre les décisions de l’IA dans le cas d’accidents de la route par exemple.

Médecin collectant des données

Les trois techniques clés d'explicabilité pour comprendre le fonctionnement de l'IA :

L’IA explicable peut être divisée en trois catégories de techniques : l'explicabilité globale, l'explicabilité locale et l'explicabilité de cohorte.

  • L’explicabilité globale vise à expliquer le comportement du modèle dans son ensemble, en identifiant les fonctionnalités qui influencent les prédictions globales du modèle. Cette méthode permet de fournir des informations aux parties prenantes sur les caractéristiques utilisées par le modèle lors de la prise de décision, comme dans le cas d'un modèle de recommandation pour comprendre les fonctionnalités les plus engageantes pour les clients.
  • L'explicabilité locale permet de comprendre le comportement du modèle au niveau de chaque caractéristique dans les données, et de déterminer comment chacune de ces dernières contribue individuellement à la prédiction du modèle. Cette méthode est particulièrement utile pour identifier les raisons d'un problème dans la production ou pour découvrir les éléments qui ont le plus d'influence sur les décisions prises par le modèle. Cette approche est notamment bénéfique dans des secteurs tels que la finance et la santé, où les caractéristiques individuelles sont très importantes.
  • L'explicabilité de cohorte se situe entre l'explicabilité globale et locale, et permet d'expliquer comment les segments de données influencent les prédictions du modèle. Cette méthode est utile pour expliquer les différences dans les prédictions entre des groupes de données différents, comme lors de la validation d'un modèle, ou pour comprendre les valeurs et prédictions aberrantes.

La gouvernance des données : un enjeu majeur pour garantir une utilisation responsable de l'IA

La gouvernance de données joue un rôle crucial en veillant à la qualité, à la protection et à la responsabilité de l'utilisation des données. Elle permet de garantir que les données sont utilisées de manière éthique et responsable, en conformité avec les lois et les normes en vigueur. Maîtriser les données est également important pour garantir la confiance envers les entreprises qui utilisent leurs données. Cependant, les algorithmes d’IA sont souvent critiqués pour leur manque de transparence et de responsabilité, ce qui peut entraîner des conséquences négatives pour les utilisateurs.

La gouvernance de données devient alors un préliminaire majeur à la génération des données d’entrainement des modèles.

Quels défis pour une IA plus éthique ?

Afin d’avoir des systèmes d’IA plus éthiques, la gouvernance de données doit être capable de relever plusieurs défis et préoccupations afin de favoriser la responsabilité et la transparence de ces outils dans le quotidien des utilisateurs.

  • La qualité des données : Les données utilisées pour entraîner les modèles d'IA doivent être de haute qualité et exemptes de biais. Si les données sont incomplètes, inexactes ou biaisées, cela peut affecter la précision et la fiabilité du modèle d'IA.
  • La confidentialité et la sécurité des données : Les données utilisées pour l'IA peuvent contenir des informations personnelles sensibles. Il est nécessaire de garantir leur confidentialité et leur sécurité tout au long du cycle de vie des données, de la collecte à la destruction.
  • La propriété des données : Cette notion peut être complexe, notamment dans les cas où les données sont collectées auprès de tiers ou dans les environnements de données partagées. Il est important de clarifier les droits de propriété des données pour éviter les conflits.
  • La gouvernance et la réglementation : Les entreprises doivent se conformer aux réglementations en matière de protection des données, telles que le RGPD en Europe ou le CCPA en Californie. Elles doivent également mettre en place des politiques et des procédures de gouvernance des données pour garantir une utilisation responsable et éthique des données.
  • La transparence et l'explicabilité : Les modèles d'IA peuvent être opaques, ce qui rend difficile de comprendre leurs décisions. Il est donc important de rendre les modèles d'IA plus transparents et explicables pour faciliter la confiance et l'adoption de l'IA.

Gouvernance de données et IA explicable, duo indispensable ?

L'intelligence artificielle explicable et la gouvernance des données sont donc étroitement liées. L’IA explicable est une technologie qui dépend fortement de la qualité et de la disponibilité des données. La gouvernance des données peut jouer un rôle clé dans la fourniture de données fiables et de qualité pour les systèmes d'IA, et à son tour, l’IA explicable peut aider à améliorer la gouvernance des données. L'IA explicable peut aider à identifier les caractéristiques des données les plus importantes pour les décisions prises par les modèles d'IA. La gouvernance de données peut ensuite aider à garantir que ces caractéristiques sont correctement collectées, stockées et traitées pour garantir la fiabilité et l'exactitude des modèles d'IA.

En conclusion, l'intelligence artificielle explicable et la gouvernance des données sont des domaines clés pour garantir que l'IA joue un rôle responsable et éthique dans notre société moderne. Une IA qui saurait nous expliquer son raisonnement et nous garantir la confidentialité des données utilisées nous éviterait certainement de plonger les yeux fermés dans des scénarios type « Big Brother »… qui ne semblent pas si éloignés de la réalité d’un futur proche !