
Le Magazine de Polytechnique Montréal
Encadrons l’IA pour qu’elle profite pleinement à la société

François Bertrand, directeur de la recherche et de l'innovation. (Photo : Denis Bernier)
La recherche scientifique a-t-elle besoin d’un nouveau cadre de référence en raison des défis posés par l'intelligence artificielle (IA)? Clairement, oui. Les répercussions éthiques, sociétales et technologiques de l’IA sont d’une telle ampleur qu’une réévaluation des méthodologies de la recherche et l'instauration de nouveaux principes éthiques deviennent nécessaires. S’impose également une réflexion approfondie sur les implications à long terme de l'IA sur la nature même de la recherche scientifique et de la production de connaissances. Cette attente, Polytechnique Montréal la partage avec nombre d’autres grands établissements de recherche du monde entier.
En février dernier, j’ai participé avec une délégation de Polytechnique à la conférence annuelle de Science|Business qui s’est tenue à Bruxelles. À titre d’expert invité au panel intitulé « AI and the stewardship of science: Time for a new blueprint? », j’ai eu l’occasion d’exprimer mon point de vue. Les échanges que j’ai pu avoir en cette circonstance avec les autres experts, des acteurs clés du paysage européen de la recherche et de l'innovation, ont mis en lumière la convergence de nos préoccupations.
Notre engagement envers une IA responsable
Avec la création d'IVADO (Institut de valorisation des données), du MILA (Institut québécois d’intelligence artificielle, anciennement « Montreal Institute for Learning Algorithms »), et de Scale AI, la grappe pour la promotion de l’IA au Canada, Polytechnique Montréal et ses partenaires universitaires ont joué un rôle de premier plan dans le positionnement de la ville de Montréal au rang de premier pôle nord-américain en IA pour son influence et la qualité de son industrie, selon le Financial Times. En apportant leur soutien, les gouvernements provincial et fédéral, ainsi que l'industrie, ont reconnu l'importance de ces initiatives pour l'économie et l'innovation technologique du Québec et du Canada.
Dès le début de l’émergence de ce pôle en IA, nos ingénieurs et ingénieures, nos scientifiques, ainsi que nos parties prenantes ont souligné l’importance cruciale de prendre en compte les implications sociétales de l’intelligence artificielle que nous développons. Ils ont également mis en avant l’urgence de collaborer étroitement pour établir un ensemble de règles éthiques afin de guider le développement d’une IA responsable. Cette démarche vise à garantir que les technologies développées s’accordent avec nos valeurs sociales et contribuent concrètement au progrès de la société.
Cet engagement s’affirme notamment par la signature de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle par IVADO et le MILA en 2017, la participation de Polytechnique à la création de l’OBVIA (Observatoire international sur les impacts sociétaux de l’IA et du numérique) en 2018, de même que sa contribution aux projets du CIRANO (Centre interuniversitaire de recherche en analyse des organisations) relatifs aux retombées socio-économiques de l’intelligence numérique.
Notre engagement s’incarne aussi dans le projet IAR3 d’IVADO, qui a obtenu en 2023 une subvention de 124,5 millions de dollars du Fonds d’excellence en recherche Apogée Canada. Le premier volet du projet est de rapprocher l'intelligence artificielle de l'intelligence humaine, en améliorant sa capacité prédictive, en intégrant la causalité et en considérant les enjeux humains dès l’étape de conception d’une technologie pour prévenir les biais potentiels. Le deuxième volet consiste à utiliser l'IA pour accélérer les découvertes scientifiques dans des domaines-clés. Enfin, le troisième vise à promouvoir une large adoption de l'IA et à garantir que la société bénéficie de ces avancées, en s'appuyant sur la recherche collaborative avec des partenaires organisationnels et en intégrant des principes d'innovation responsable.
Polytechnique répond présent aux besoins en formation sur l’IA et la cybersécurité
Avec l'avènement de l'IA et des enjeux de cybersécurité, et l'évolution fulgurante de la société en pleine révolution numérique, il est devenu impératif que citoyens, organisations et gouvernements soient correctement informés sur les enjeux de l'IA et l'utilisation éthique des technologies numériques en général. Polytechnique, de concert avec ses instituts comme IVADO et l’IMC2 (Institut multidisciplinaire en cybersécurité et cyberrésilience), contribuent à cette mission, en donnant des formations et en fournissant des connaissances pertinentes pour le bien de notre société.
Les individus ont, aujourd’hui plus que jamais, besoin d’accéder à de la formation continue pour faire face aux bouleversements que cette transformation numérique amène dans leur vie professionnelle. A cet égard, Polytechnique répond à plusieurs de ces besoins, en particulier par l’entremise de ses certificats en cybersécurité. Elle poursuit ainsi ses efforts pour assurer une formation technologique adéquate des citoyens à chaque étape de leur vie et pour les sensibiliser aux enjeux de la révolution numérique en cours.
Nécessité d’agir vite
L’IA s’implante à grands pas dans tous les pans de notre société et je pense qu’il est vain de vouloir freiner son avancée, ne serait-ce que pour ne pas se faire distancer par les nations qui misent sur son plein potentiel.
Cependant, il est impératif de relever les défis préoccupants qui émergent. Dans le domaine scientifique, par exemple, l'explosion du nombre d'articles depuis l'avènement de l'IA générative risque de submerger les réviseurs, comme on l’a souligné lors du panel de Science|Business. L’évaluation de la qualité des résultats publiés devient en outre de plus en plus complexe pour les réviseurs qui ne disposent souvent pas d’informations suffisantes sur le modèle d'IA utilisé ou les données employées par les auteurs.
À une échelle plus large, on observe que l’IA générative est de plus en plus utilisée pour la production des contenus Internet et des médias sociaux, sans que le grand public n’en soit toujours pleinement conscient. Cela soulève des questions importantes en matière de désinformation, de vie privée et d'éthique.
Un autre aspect moins connu mais tout aussi préoccupant concerne les coûts exorbitants associés aux calculs requis pour entraîner et faire fonctionner les modèles d'IA générative, ainsi que le profond déséquilibre en matière d’accès à la puissance de calcul entre les grandes entreprises et les universités et centres de recherche publics. À titre d’exemple, Calcul Québec dispose de 1 500 GPU (unités de processeur graphique), alors que des sociétés comme META ont accès à plusieurs centaines de milliers de ce type d’unités de traitement. Dans ce contexte, l’investissement de 2,4 milliards $ annoncé par le gouvernement fédéral soutenir l’IA canadienne est une mesure cruciale.
Augmenter notre intelligence collective et individuelle
Ces défis nous rappellent la nécessité d’instaurer rapidement des normes pour encadrer le domaine de l'IA sans entraver le progrès. Le rapport Prêt pour l’IA publié en février par le Conseil de l’innovation du Québec propose une douzaine de recommandations qui vont dans ce sens et qui visent à atténuer les conséquences négatives potentielles de l’IA.
Sur le plan individuel, il me paraît tout aussi crucial de continuer à exercer notre pensée critique, notre jugement, notre perspicacité sociale lorsque nous développons ou utilisons l’IA.
Je conclus par un aveu : l’expression « intelligence artificielle » me déplaît! Je lui préfère « intelligence augmentée », une intelligence qui assiste l’humain, sans vocation à le remplacer.