Laboratoire ESPACE-DEV (UMR 228 UPVD IRD UM UR UAG)
24 janvier 2025
----------
L'intelligence artificielle (IA) est désormais omniprésente dans notre société et affecte divers secteurs comme la recherche scientifique, les services financiers, et la santé. Bien qu'elle accélère l'innovation, elle suscite aussi des interrogations éthiques, notamment sur la transparence de ses décisions.
En tant que bien commun, l’IA doit être développée et utilisée de manière à bénéficier à l’ensemble de la société, tout en étant accessible et éthique. Dans les milieux académiques, l’IA est vue comme un atout collectif qui soutient le progrès scientifique, mais à condition que ses modèles soient compréhensibles pour garantir leur utilisation éthique. L’explicabilité, ou XAI (eXplainable Artificial Intelligence), désigne la capacité d’un modèle d’IA à expliquer de manière claire ses décisions aux utilisateurs. Cette transparence est essentielle pour renforcer la confiance dans les systèmes d’IA, notamment pour des applications sensibles comme les décisions de prêts bancaires. Par exemple, un système de prêt basé sur l’IA doit pouvoir expliquer pourquoi une demande est acceptée ou refusée. Grâce à l’explicabilité, les utilisateurs peuvent évaluer la pertinence des décisions, identifier des biais potentiels et intervenir pour corriger des erreurs éventuelles. La transparence favorise la confiance et encourage les développeurs à adopter des pratiques éthiques. Elle permet de s’assurer que les décisions de l’IA sont justifiées et compréhensibles. En cas d’anomalies, celles-ci peuvent être identifiées et corrigées. Par exemple, un système d’IA utilisé dans le recrutement a été récemment critiqué pour reproduire des biais sexistes. Grâce à des techniques d’explicabilité, les développeurs ont pu identifier l’origine du problème et corriger le modèle pour garantir un traitement équitable.
Des chercheurs comme Lipton et Guidotti insistent sur le rôle crucial de l’explicabilité pour promouvoir une IA éthique et bénéfique pour la société. Les techniques d’explicabilité de l’intelligence artificielle se divisent en plusieurs catégories distinctes. Certaines méthodes sont spécifiques à des types de modèles particuliers, tandis que d’autres sont agnostiques et peuvent être appliquées à une large gamme de modèles. L’explicabilité peut également être locale, c’est-à-dire axée sur l’explication d’une décision spécifique, ou globale, visant à éclairer le fonctionnement d’ensemble du modèle. En fonction du moment d’application, elle peut être intégrée avant, pendant ou après l’entraînement du modèle. Par exemple, une méthode locale pourrait expliquer pourquoi un modèle médical a détecté une anomalie spécifique dans une image radiologique, tandis qu’une méthode globale viserait à donner une vue d’ensemble sur la manière dont le modèle analyse les images. Par ailleurs, certaines techniques reposent sur des modèles simplifiés pour offrir une représentation visuelle des processus décisionnels de l’IA, tandis que d’autres utilisent des approches de substitution. Ces catégories offrent aux chercheurs une flexibilité leur permettant de sélectionner les méthodes les plus adaptées à leurs objectifs et à la nature des données qu’ils manipulent.
Initiatives d’ESPACE-DEV à l’UPVD dans le domaine de l’IA explicable
Le laboratoire ESPACE-DEV de l’Université de Perpignan Via Domitia (UPVD) est un acteur de premier plan dans la recherche sur l’IA explicable. Ses travaux s’appuient sur des partenariats avec des institutions internationales et portent sur des applications variées. Un projet emblématique mené par ESPACE-DEV consiste à développer un système d’IA pour surveiller l’irrigation et détecter les maladies dans les cultures. Ce système utilise un réseau de capteurs et de drones pour recueillir des données en temps réel, que l’IA analyse pour repérer des anomalies et fournir des recommandations aux agriculteurs. Ce projet, soutenu par le programme Bonus Qualité Recherche de l’UPVD, vise à optimiser les ressources en eau et à prévenir les maladies, et pourrait être étendu à l’international.
Le projet Horizon Europe MOSAIC, auquel participe ESPACE-DEV, vise à développer des écosystèmes multimodaux pour aider les communautés locales à comprendre les effets des changements environnementaux sur la santé. Grâce à l’intégration de données variées, comme des images satellites et des relevés de biodiversité, MOSAIC utilise l’IA pour prédire des risques sanitaires et environnementaux. Les techniques d’explicabilité permettent aux utilisateurs de mieux interpréter les résultats et de prendre des mesures préventives contre des crises potentielles. L’explicabilité est essentielle pour garantir une utilisation éthique et responsable de l’IA. Elle assure que les systèmes d’IA sont transparents, permettent de comprendre les décisions et aident à détecter des biais éventuels. En mettant l’accent sur l’explicabilité, nous pouvons nous assurer que l’IA reste un bien commun, utile à tous, tout en répondant aux défis éthiques posés par son utilisation dans des secteurs critiques.
Création d'une rubrique de vulgarisation scientifique
Depuis novembre 2024, le journal La Semaine du Roussillon consacre une rubrique sur les projets de recherche menés à l’Université de Perpignan Via Domitia (UPVD). Chaque semaine, un ou une scientifique issu.e d’un des 16 laboratoires de l’UPVD prend la plume et partage ses travaux de recherche de manière vulgarisée.
La Semaine du Roussillon est le premier hebdomadaire d’informations des Pyrénées-Orientales. Il publie, depuis 1996, de l’information générale couvrant l’ensemble du département sous la houlette de journalistes indépendants. Éditée par la SARL Les Éditions de Celestina, La Semaine du Roussillon n’appartient à aucun groupe de presse. Le journal traite de l’actualité avec un intérêt particulier pour les sujets de fond. Cette volonté se traduit aujourd’hui par la création d’une rubrique dédiée à la vulgarisation scientifique.
À travers ses deux écoles doctorales, ses 16 unités de recherche et ses six plateformes technologiques, la recherche à l’UPVD est marquée par sa pluridisciplinarité et sa transdisciplinarité qui lui permettent aujourd’hui d’aborder de nombreux sujets liés à l’environnement, la biodiversité, les arts, les sciences politiques et sociales ou encore l’économie. Résolument engagée dans un esprit de partage de ses connaissances et de valorisation des travaux chercheurs, l’UPVD s’inscrit ici dans une volonté de promotion de la science au service de la société.