
Le Magazine de Polytechnique Montréal
IA : bientôt des garde-fous?

Nathalie de Marcellis-Warin, professeure titulaire au Département de mathématiques et de génie industriel, présidente-directrice générale du CIRANO et directrice de l’axe dédié aux Outils de mesure, veille et enquêtes de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA).
Les impacts de l’intelligence artificielle sur la société sont l’un des principaux sujets de recherche de Nathalie de Marcellis-Warin, professeure au Département de mathématiques et de génie industriel, présidente-directrice générale du Centre interuniversitaire de recherche en analyse des organisations (CIRANO) et chercheuse principale du thème Innovation et transformation numérique du même organisme. Cette spécialiste de la gestion et de la perception des risques, dont la contribution est essentielle dans les débats actuels, est aussi directrice de l’axe dédié aux Outils de mesure, veille et enquêtes de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA).
« L'IA est désormais omniprésente dans notre quotidien, sans que nous ayons toujours conscience d’interagir avec elle. Lorsque nous recevons des suggestions de films sur une plateforme de diffusion en ligne ou une recommandation d’achat, ou quand notre CV est analysé par une entreprise, la plupart du temps, l’IA est derrière ces actions. Nos enquêtes nous ont montré qu’un grand nombre de personnes déclarent craindre l’IA ou s’en méfier, sans la comprendre ou être en mesure de l’identifier. Cependant, ces mêmes personnes partagent sans restrictions leurs données personnelles avec des applications, des plateformes en ligne ou des assistants virtuels plutôt intrusifs », rapporte-t-elle.
Selon elle, ce paradoxe souligne le besoin d'une meilleure sensibilisation du public aux principes de fonctionnement de l’IA et à la protection des données personnelles, ainsi que le respect de pratiques transparentes quant à leur utilisation de la part des fournisseurs de services recourant à l’IA. Elle est convaincue de la nécessité de fournir un encadrement pour guider le développement et l’utilisation responsable de l’IA.
Le choc ChatGPT
« Après le dévoilement de la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle en 2018, la nécessité d’encadrer l'IA ne faisait pourtant pas l’unanimité parmi les décideurs publics et les développeurs d’algorithmes, dont certains craignaient de freiner l'innovation ou de ne pas être en mesure de faire respecter de telles lois », témoigne la chercheuse.
« Une première prise de conscience des risques de l’IA à grande échelle avait pourtant émergé après les élections américaines de 2016, puis le vote du Brexit avec les manipulations sur les réseaux sociaux tirant avantage des données personnelles des utilisateurs. Mais c’est l’arrivée de ChatGPT qui a le plus radicalement changé le regard des décideurs publics et de la société en général sur l’IA, poursuit-elle. Cette avancée, en révélant le potentiel impressionnant de l'IA dans de multiples applications concrètes telles que la création de contenu, le service à la clientèle et l'assistance virtuelle, a mis en lumière des enjeux au-delà de l'éthique, la responsabilité et la sécurité, et qui concernent l’économie, l’emploi, la précarité et le bien-être. Le choc a été tel que tout le monde a pris conscience des risques et donc de l’urgence d’agir. »
Nathalie de Marcellis-Warin et Christophe Mondin, professionnel de recherche au CIRANO, ainsi que plusieurs autres chercheurs du CIRANO et de l’OBVIA, ont contribué à un rapport du Conseil de l’innovation du Québec (CIQ) remis au ministère de l’Économie, de l’Innovation et de l’Énergie (MEIE) intitulé Prêt pour l’IA. Nourri par les contributions d’un vaste panel d'experts de multiples disciplines (IA, science des données, éthique, droit, sciences économiques, génie, éducation, art, santé, etc.) et de citoyens, il émet une série de recommandations pour un encadrement favorisant une utilisation et un développement responsables et harmonieux de l'intelligence artificielle au Québec. « Ce travail collectif fournit au gouvernement une base solide sur laquelle il peut fonder une approche proactive d’encadrement, afin que l’IA profite à l’ensemble de la société et que les risques soient minimisés. Une loi-cadre pourrait en découler prochainement. »
L’éthique de conception, une notion qui s’impose
Un des effets de cet encadrement sera d’établir des principes directeurs et des normes de transparence accrue dans les systèmes d'IA et leurs applications. « La responsabilité des développeurs est mise de l’avant. Il leur revient d’anticiper et de prévenir autant que possible les risques dès les premières étapes du processus de conception et de développement des algorithmes », souligne Mme de Marcellis-Warin, qui explique que cette vision se fonde sur la notion d’éthique de conception (ethics by design, en anglais). Son application vise notamment à réduire l’opacité des algorithmes, dont les décisions devraient pouvoir être comprises et expliquées aux utilisateurs. Des principes éthiques tels que la justice, la transparence, le respect de la vie privée et des droits humains doivent également être intégrés dans la conception des algorithmes et respectés tout au long de leur développement. Il faut pouvoir évaluer l’algorithme pendant tout son cycle de vie et le corriger, ce qui implique la mise en place de processus de contrôle.
« Il faut que l’éthique s’applique également à la collecte et à l’utilisation des données, qui demeurent parmi les aspects les plus risqués de l'IA, rappelle Mme de Marcellis-Warin. Cette étape est sujette à de nombreux biais, ce qui représente un danger. » Pour éviter les préjudices, il faut s'assurer que les données utilisées pour entraîner les algorithmes soient représentatives, équitables et exemptes de biais discriminatoires. Les considérations éthiques doivent également s’imposer dans la manière dont les données sont collectées, stockées et utilisées, afin de protéger la vie privée des individus.
Enjeux dans le monde du travail
Nathalie de Marcellis-Warin étudie également les effets de l’IA dans le monde du travail. « Les entreprises québécoises sont loin d’avoir atteint leur maturité numérique et, par conséquent, peu d’entre elles tirent parti des avantages de l’IA, faute de savoir collecter et structurer leurs données d’affaires », observe-t-elle. Pour y remédier, le MEIE, en collaboration avec plusieurs parties prenantes de l’écosystème IA, développe des programmes d’accompagnement des entreprises. Un des projets de recherche du CIRANO est d’ailleurs d’étudier l’impact de tels programmes sur l’adoption de l’IA au Québec.
Du côté des travailleurs, les préoccupations envers l’IA sont exacerbées depuis l’apparition de ChatGPT. « Certains redoutent de perdre leur emploi, tandis que d’autres, plus nombreux, appréhendent l'intégration de cette technologie, sachant qu'elle modifiera leurs tâches, leur rapport à l’emploi, et craignent de manquer de compétences et de ressources pour s'adapter à cette évolution. »
La gestion algorithmique du travail soulève aussi des inquiétudes, rapporte la Pre de Marcellis-Warin. L’IA facilite l’application de principes d’amélioration continue des processus (lean management). Par ailleurs, elle fait valoir que l’IA peut également aider à améliorer la sécurité des travailleurs, par exemple, en prévenant les accidents sur les chantiers de construction, ou encore, en permettant d’analyser en temps réel des données biométriques, afin de détecter les signes de fatigue ou de stress, et ainsi prévenir les blessures ou les maladies professionnelles.
Apprendre à coexister harmonieusement avec l’IA
« Que ce soit dans le monde du travail ou dans la vie quotidienne, le recours à l’IA requiert de grands efforts de sensibilisation et même d’éducation », pense Nathalie de Marcellis-Warin.
« Le public a besoin d’être mieux informé sur ce qu'est l'IA, son fonctionnement, ses avantages, ses limites et ses implications, de même que sur les précautions à prendre lors de son utilisation, notamment en ce qui concerne le partage des données personnelles. Je crois aussi à la nécessité de se pencher sur les mécanismes de consentement éclairé. On pourrait, par exemple, exiger que les systèmes conversationnels soient clairement identifiés comme tels, afin de souligner aux usagers qu’ils s’entretiennent avec une machine. »
La prise en compte d’une diversité de points de vue et de besoins dans le processus de développement et d’adoption de l'IA représente un autre facteur d’intégration bénéfique de cette dernière. À cet égard, on peut prendre en exemple les équipes de l’OBVIA et du CIRANO, qui veillent à consulter et à impliquer les citoyens dans leurs travaux de recherche. De manière générale, intégrer toutes les parties prenantes lorsque l’on développe une solution d’IA permet de couvrir tous les angles morts et de pallier les biais, tout en augmentant la littératie numérique de tous.
« Je pense que c’est en premier lieu l’engagement actif des pouvoirs publics, des entreprises et des citoyens qui pourra permettre la construction d’un avenir numérique bénéfique à la société », conclut la Pre de Marcellis-Warin. Nous avons donc tous intérêt à nous intéresser à l’IA!
Documents utiles
La gestion algorithmique de la main-d’oeuvre : analyse des enjeux éthiques, publié par la CEST
Prêt pour l'IA, publié par le Conseil de l'innovation du Québec