Sans confiance, pas d’intelligence artificielle : quatre facteurs qui renforcent la confiance dans les modèles d’IA

L’intelligence artificielle (IA) a fait couler plus d’encre que jamais au cours de l’année écoulée. La plupart des organisations sont sur le coup ou à tout le moins expérimentent les modèles d’IA pour soutenir leurs activités. La confiance est une condition essentielle au succès de toute application. Pour récolter les fruits d’un modèle d’IA, les utilisateurs finaux doivent faire confiance aux résultats générés.

La confiance dans l’IA commence déjà au niveau des données que vous utilisez. Dans deux articles précédents, vous avez découvert comment contourner les principaux écueils pour une exploitation productive des données, et comment stimuler la confiance dans les données grâce à une architecture appropriée (telle qu’un catalogue de données). Mais les modèles que nous appliquons aux données doivent également inspirer confiance.

La plupart des modèles s’apparentent à une « boîte noire » qui produit des résultats. La transparence et l’interprétabilité de ces résultats sont dès lors primordiales pour que le public se fie à cette « boîte noire ». Il existe différentes méthodes simples pour permettre l’interprétation des modèles d’IA :

Natural Language Explanation

Supposons qu’un modèle produise un graphique et que vous le soumettiez à l’examen de deux personnes. Il est très probable qu’elles interprètent toutes les deux les résultats différemment. Pourtant, il n’y a qu’une seule interprétation possible. Chaque modèle est basé sur les mathématiques et les statistiques. Pour la plupart des individus, il est tout simplement très difficile de lire correctement des résultats statistiques. Certaines solutions contribuent heureusement à clarifier la logique derrière les statistiques.

Natural Language Explanation, une technologie comparable à des applications telles que ChatGPT, traduit cette logique de manière accessible et dans un langage naturel. Des études ont montré qu’un texte d’accompagnement rendait les résultats assimilables et plus clairs pour les utilisateurs finaux. À partir du moment où ils comprennent mieux les résultats, ils ont automatiquement davantage confiance dans le modèle.

Counter Factual Explanation

Selon des études, le fait de donner un contre-exemple permet souvent de comprendre plus rapidement une explication spécifique. Nous pouvons également appliquer cette technique aux modèles d’IA. Dans le cas d’un modèle bancaire qui refuse une demande de prêt, vous pourriez expliquer pourquoi le client n’obtient pas son prêt. Mais vous pourriez aussi travailler dans l’autre sens et décrire dans quelles conditions le prêt aurait été octroyé. Par exemple, si l’apport propre du client avait été plus élevé ou si la durée de remboursement avait été un peu plus longue. À l’heure où l’IA s’insinue dans un nombre croissant de domaines, les technologies comme Counter Factual Explanation sont utiles pour expliquer le contexte des décisions à un large public.

Model Cards

Quelle est la portée d’un projet ? Quels sont les objectifs ? Et quels sont les risques ? Pour pouvoir fournir ces informations, nous dotons les modèles IA de « model cards ». Le concept provient du domaine du risque, où la « model card » est même obligatoire dans le cadre de la conformité. Entre-temps, l’IA est devenue tellement omniprésente que SAS met aussi cette technologie à la disposition d’autres applications. Les model cards sont en réalité incontournables, surtout à l’heure où la Loi sur l’IA de l’UE et d’autres réglementations mettent davantage l’accent sur l’importance de la gouvernance.

Quoi qu’il en soit, les model cards sont intéressantes pour utiliser les modèles d’IA avec plus de confiance. Elles montrent en effet clairement à quoi sert le modèle. Un exemple simple : si vous avez élaboré un modèle qui produit des illustrations ou des photos, vous ne pouvez pas vous attendre à ce qu’il produise aussi des dessins animés. Cela fonctionnera peut-être, mais le modèle n’est tout simplement pas fait pour ça. Vous voyez donc quand vous pouvez faire confiance à un modèle et quand les résultats sont peut-être moins fiables.

Focus sur la sécurité

Enfin, la confiance dans la technologie va toujours de pair avec la sécurité. En matière d’analytique et d’IA, on pense directement à la protection des données et de l’infrastructure, mais la sécurité peut aussi être primordiale pour un modèle. Des études récentes révèlent qu’en théorie, il n’est pas impossible de reconstituer les données initiales sur lesquelles un modèle a été entraîné, à partir des données que vous y avez introduites. Chaque fois que vous introduisez des données, le modèle va générer un résultat. Si vous continuez à le faire de manière cohérente avec le modèle d’IA approprié, celui-ci devrait pouvoir découvrir les données de base de la « boîte noire ».

Bien qu’il n’existe encore aucun exemple connu de telles applications malveillantes, nous devons évidemment tenir compte de cette possibilité. Pour une banque, il serait par exemple dramatique qu’en dépit de toutes les mesures de sécurité, les données de clients soient brusquement à la portée de tous via une application d’IA en ligne. Il est donc primordial d’étendre notre stratégie de respect de la vie privée et de sécurité aux modèles que nous construisons. Par exemple, en vérifiant à quelle fréquence un modèle est invoqué.

Faites de la confiance un état d’esprit

De la suppression des biais aux techniques qui renforcent la confiance dans l’IA : à première vue, on pourrait penser que ces processus ne font qu’entraver la productivité et l’utilisation de l’analytique dans l’organisation. Ce sera peut-être le cas au début, mais à long terme, vos processus seront de plus en plus fluides. Le cycle de vie d’un modèle se poursuit en effet au-delà de son développement.

Si vous concevez correctement le volet gouvernance et intégrez la confiance en tant que norme dans votre stratégie de développement et de suivi des modèles, cet aspect vous demandera moins de travail dans une phase ultérieure et vous pourrez donc exploiter l’IA de manière plus efficace. D’une part, les utilisateurs finaux feront plus rapidement confiance aux décisions de votre modèle et d’autre part, votre organisation sera mieux préparée à des scénarios dans lesquels les choses pourraient mal tourner.

Conclusion ? À l’heure où l’IA s’insinue dans tous les aspects de la société, nous devons plus que jamais renforcer la confiance dans la technologie. De nombreuses techniques, dont l’importance se justifiait surtout dans le monde financier jusqu’à présent, sont désormais indispensables aussi pour d’autres applications. Toutes les fonctionnalités utiles dans le cadre de la confiance et des normes de gouvernance sont par conséquent présentes dans la suite logicielle de SAS, l’objectif étant de permettre aux organisations de profiter de manière optimale et sereine des innombrables avantages de l’IA.

Cet article fait partie d’une série en trois volets. La série complète d’articles est disponible ici. Cet article a été rédigé par Véronique Van Vlasselaer(Analytics & AI Lead SWEE, SAS) & Mathias Coopmans (EMEA Technology Futures Lead Architecture & Cloud, SAS).

newsletter

Abonnez-vous gratuitement à ITdaily !

Category(Required)
This field is for validation purposes and should be left unchanged.
retour à la maison