IA : un pouvoir à surveiller comme l’atome ?
La confiance dans les modèles d’IA ne repose pas uniquement sur leurs performances techniques. Les principes éthiques et les valeurs comptent tout autant.
La confiance est intrinsèquement humaine. Nous comptons sur un chauffeur de bus pour nous amener à destination en toute sécurité, mais qu'en est-il du véhicule ? Lui faisons-nous autant confiance qu'à un être humain ? Ou bien la technologie doit-elle simplement être fiable ? Et qu'en est-il lorsque l'intelligence artificielle prend le volant ?
« La confiance peut être directement transférée à l'IA », estime Petar Tsankov, PDG et cofondateur de LatticeFlow AI. Cette spin-off de l’EPFZ aide les entreprises à développer une Intelligence Artificielle (IA) fiable, performante et digne de confiance pour des applications concrètes. Selon lui, la confiance dans l'IA naît lorsque ses modèles réagissent de manière cohérente et sans erreur dans différents environnements et prennent des décisions crédibles. La fiabilité de l'IA avec des données nouvelles est essentielle pour établir la confiance. « Trop souvent, les modèles ne répondent pas aux attentes lorsqu'ils sont exposés à des conditions réelles. Cela sape la confiance. »
L'ouverture crée la confiance
Pour Alexander Ilic, directeur général de l’EPFZ AI Center, la confiance entre en jeu lorsque la technologie et la société se rencontrent. « Les changements profonds induits par l'IA ne sont pas encore achevés. La prochaine étape consistera à exploiter le potentiel des données internes des entreprises dans différents secteurs et à développer des assistants IA hautement personnalisés qui nous aideront à accomplir des tâches complexes. Dans le même temps, nous devons réfléchir à l'impact de ces nouvelles possibilités sur les utilisateurs et nous demander comment instaurer la confiance dans l'IA afin que les risques qu'elle comporte ne l'emportent pas sur ses avantages. » Afin d'identifier les risques, ceux-ci sont discutés au sein de ce centre entre les chercheurs et en collaboration avec différents groupes.
Pour Andreas Krause, professeur d'informatique et directeur de l’EPFZ AI Center, l'ouverture est la clé de la confiance : « En tant que chercheurs en IA, nous ne pouvons pas imposer la confiance. Nous pouvons créer de la transparence en divulguant les données utilisées et en expliquant comment les modèles d'IA sont développés. » Krause explore de nouvelles approches permettant d'évaluer les incertitudes des modèles d'IA afin qu'ils puissent mieux reconnaître ce qu'ils ne savent pas. L'évaluation de ces incertitudes est importante pour la confiance dans l'IA, par exemple pour détecter plus facilement les « hallucinations ».
Une IA générative selon les valeurs suisses
Alexander Ilic ajoute : « À l'EPFZ AI Center, nous travaillons avec des bases ouvertes qui peuvent être vérifiées et évaluées par des parties indépendantes. » La Swiss AI Initiative et le Swiss National AI Institute sont des laboratoires réels de développement ouvert de l'IA : plus de 650 chercheurs de l’EPFZ, de l’EPFL et de dix autres instituts universitaires suisses y développent un grand modèle linguistique suisse et la prochaine génération de modèles de base. Ils jettent ainsi les bases d'une IA générative conforme aux valeurs suisses. Dans ce contexte, l'ouverture signifie que les codes sources, les outils, les données d'entraînement et les pondérations des modèles – qui influencent les décisions d'une IA – sont librement accessibles. Cela permet également aux PME et aux start-up de s'appuyer sur ces données pour développer leurs innovations. De plus, l'utilisation commune de modèles de base open source permet de réaliser des économies considérables en termes de coûts et d'empreinte carbone.
Il existe des principes visant à promouvoir la confiance dans l'IA, tels que la fiabilité, la sécurité, la robustesse, la cohérence et la traçabilité. Pour Ilic, il s'agit là d'exigences fondamentales : « Ce n'est que lorsque nous comprenons ce qui se passe dans l'IA que les organisations peuvent commencer à l'utiliser pour transformer leurs processus clés et travailler avec des données sensibles. » Les systèmes dits « boîtes noires », qui ont été entraînés à partir de données contenant des préjugés cachés ou des valeurs politiques étrangères, peuvent parfois être très déconcertants. « La confiance dans l'IA grandit lorsque nous pouvons être sûrs qu'elle repose sur les mêmes principes éthiques et valeurs que les nôtres », explique-t-il.
Éthique et accessible
Petar Tsankov ajoute : « Les gens attendent de l'IA qu'elle respecte les normes éthiques, évite la discrimination et produise des contenus conformes aux valeurs humaines. La confiance dans l'IA ne repose pas seulement sur ses performances techniques, mais aussi sur la garantie qu'elle est en accord avec nos principes sociaux. »
Les directives de gouvernance, les normes et les lois constituent un moyen de définir des principes. « Mais ceux-ci, seuls, ne suffisent pas », précise M. Tsankov. « La confiance ne repose pas uniquement sur des sources abstraites. Une IA digne de confiance nécessite un contrôle technique rigoureux afin de vérifier qu'elle fonctionne réellement de manière robuste, fiable, équitable, sûre, explicable et conforme à la loi. Le grand défi consiste à rendre ces origines techniquement mesurables. »
Dans les environnements sensibles, deux autres principes entrent en jeu : l'interprétabilité et l'explicabilité. Cela signifie que les personnes qui utilisent une IA savent comment celle-ci prend ses décisions et peuvent les expliquer de manière compréhensible à d'autres personnes.
Ces deux provenances sont importantes, par exemple en médecine, en particulier lorsqu'une IA aide au diagnostic et au traitement d'une maladie infantile. Comme le souligne Margarita Boenig-Liptsin, les personnes évaluent la fiabilité d'une IA différemment selon leur point de vue, car l'expérience, les connaissances et les responsabilités de la chercheuse en IA, du médecin, de l'enfant et des parents sont différentes et qu'ils ne vivent pas les conséquences de la même manière.
« En médecine, les modèles d'IA doivent être transparents, interprétables et explicables pour gagner la confiance », relève Julia Vogt, professeure d'informatique. Elle développe des modèles d'IA qui aident les médecins à diagnostiquer et à traiter des maladies. Son groupe de recherche a mis au point des modèles d'apprentissage automatique interprétables que les médecins peuvent utiliser pour diagnostiquer et traiter des maladies. À partir d'échographies, l'IA détermine la gravité de l'appendicite d'un enfant et propose un traitement. Une autre IA accessible peut évaluer la gravité de l'hypertension pulmonaire chez un nouveau-né. Ses recherches montrent que ce n'est pas seulement la performance de l'IA qui compte, mais aussi le fait que ses décisions et ses recommandations soient lisibles pour les médecins et les patients.
Rendre les décisions d'une IA vérifiables et intelligibles renforce la confiance. Néanmoins, une partie des décisions prises par une IA restera toujours confuse pour nous, les humains. Cette incertitude ne doit toutefois pas nuire à la confiance dans l’Intelligence Artificielle. Selon Andreas Krause, l'exhaustivité n'est pas nécessaire : « Il est tout aussi difficile d'expliquer complètement les modèles d'IA que de comprendre complètement les décisions humaines d'un point de vue neurobiologique. Malgré cela, les êtres humains peuvent se faire confiance. »
Contribution de: Hendrik Thielemann
Source d'image: Shutterstock