Carrefour de l'actualité

Notre reflet dans le miroir de l’IA

Par Catherine Florès
4 avril 2024 - Source : Magazine Poly  | VersionPDFdisponible (Printemps 2024)

Humaine, trop humaine, l’intelligence artificielle? Tout comme nous, elle subit l’influence de biais, qui sont en fait les nôtres. Bien qu’ils représentent l’un des aspects les plus préoccupants de l’IA, ces biais ne sont toutefois ni une fatalité, ni même toujours une calamité, fait valoir un éminent spécialiste de l’apprentissage automatique, le Pr Foutse Khomh, du Département de génie informatique et de génie logiciel. Codirecteur scientifique - Activités scientifiques et International d'IVADO, et titulaire d’une chaire en IA Canada-CIFAR sur les systèmes logiciels d’apprentissage machine fiables et de la Chaire de recherche FRQ-IVADO en assurance qualité des logiciels d'apprentissage automatique, celui-ci nous présente un éclairage sur ces fameux biais.

Professeur Foutse Khomh, spécialiste de l'IA
Pr Foutse Khom, professeur titulaire au Département de génie informatique et de génie logiciel et codirecteur scientifique - Activités scientifiques et International d'IVADO.


Biais à tous les étages

« Les biais peuvent être introduits ou amplifiés à différents stades du processus de conception, de développement et d'utilisation du modèle », explique Foutse Khomh. Celui-ci indique que certains biais sont présents dès la source d’alimentation des algorithmes : les données d'entraînement. C’est le cas, par exemple, lorsque des stéréotypes ou des préjugés ont influencé des décisions prises par des humains, et que ces décisions se reflètent dans les données historiques utilisées pour entraîner les algorithmes. Par ailleurs, des données mal étiquetées ou incomplètes peuvent également conduire à des modèles inexacts ou biaisés.

Parfois, c’est la sélection des données d'entraînement qui est biaisée. Par exemple, lorsque des données concernant certaines populations sont exclues de la sélection, ou lorsque celle-ci privilégie certains types de données au détriment des autres. Les modèles produisent ainsi une représentation incomplète ou distordue de la réalité.

L’utilisation elle-même des modèles peut également subir l’influence de biais cognitifs et les amplifier. Si, par exemple, les utilisateurs d’un modèle de recommandation notent défavorablement un produit en raison de leurs biais, le modèle pourrait moins recommander ce produit à d’autres utilisateurs aux profils similaires. Dans le secteur bancaire, si un modèle de prédiction de crédit employé pour accorder des prêts est biaisé et que, pour cette raison, moins de prêts sont octroyés à un groupe particulier de la population, moins d’informations sur la solvabilité de ce groupe risquent d’être disponibles, et ce groupe sera donc encore moins représenté dans les prochaines données d'entraînement.

« Il est donc crucial de prendre en compte les questions de biais à chaque étape du cycle de vie d'un modèle d'IA pour atténuer ces effets indésirables, déclare le Pr Khomh. Mais tous les biais de l’algorithme ne sont pas toujours le reflet de nos biais inconscients. Il arrive que les concepteurs orientent volontairement un algorithme pour favoriser une dimension spécifique au détriment d'une autre. Cette ingénierie de biais peut d’ailleurs être motivée par un objectif d'équité largement accepté. »

Se débarrasser d’un héritage embarrassant

« L’utilisation de l’IA représente une chance de faire le ménage dans nos pratiques en se débarrassant de notre héritage embarrassant, affirme le Pr Khomh. À condition d’être sensibles à l’existence des biais, de poser le bon diagnostic, puis de prendre des actions éclairées. »

Lors de la conception d’un algorithme, il faut donc s’assurer que le calcul s’opère sans facteur indésirable, afin que l’algorithme ne fonctionne pas de façon discriminatoire. Il existe des moyens de « débiaiser » un algorithme, précise Foutse Khomh. Par exemple, dans le contexte du recrutement professionnel, on peut accorder de l'importance à des attributs qui englobent d'autres types de compétences pertinentes pour le poste, même si elles ont été acquises dans un domaine connexe. Cela facilite la sélection de candidats dont les compétences les rendent admissibles au poste alors qu’ils ont un profil atypique. En conséquence, cela favorise une plus grande diversité parmi les candidats sélectionnés.

« Lorsqu'on interroge un modèle génératif, il doit sélectionner le bon contexte, filtrer les indices et fournir une réponse pertinente. Cependant, des études montrent que même le choix du contexte peut être biaisé. Nous devons donc calibrer les modèles pour qu'ils ne s'attardent pas sur des informations non pertinentes pour la tâche demandée, telles que celles liées au genre, par exemple », ajoute M. Khomh.

Savoir reconnaître les limites d’un modèle

Tel un sprinteur qui excellerait sur une piste de course classique mais enregistrerait de faibles performances sur une route montagneuse, un modèle d’IA ne peut fonctionner de manière efficace et fiable que dans une certaine fenêtre de conditions, que les spécialistes désignent comme l’enveloppe opérationnelle du modèle. Hors de cette enveloppe, il est préférable de ne pas déployer le modèle, à moins qu’il ne soit possible de mettre en place des mécanismes de contrôle et de compensation.

« Lorsque la performance du modèle est réduite par une couverture insuffisante de données, certaines approches consistent à utiliser des données synthétiques. Mais celles-ci présentent souvent des limites en termes de fidélité aux données réelles, de biais de modèle, de complexité de génération et de capacité de généralisation. Nous devons donc examiner attentivement les implications de l'utilisation de données synthétiques et considérer d'autres approches, telles que l'augmentation des données réelles ou l'utilisation de techniques de correction de biais, le cas échéant », indique le Pr Khomh.

Compléter l’humain

Lorsque toutes les précautions sont prises, les modèles d’IA ouvrent de nouvelles perspectives aux activités humaines, comme en témoignent les récents projets dirigés par le Pr Khomh.

À titre d'exemple, en collaboration avec une entreprise spécialisée dans l'acquisition de talents, son équipe a développé une solution innovante pour sélectionner les meilleurs candidats dans une vaste base de profils. Cette solution permet de parcourir des milliers de CV en recherchant au-delà d’une correspondance exacte entre les exigences du poste et le contenu du CV, soit en identifiant les candidats ayant le potentiel nécessaire pour occuper les fonctions du poste, même si leurs profils ne correspondent pas parfaitement aux mots-clés spécifiques. Cette solution offre ainsi de plus grandes opportunités professionnelles à ces candidats.

Le Pr Khomh mentionne également un projet en cours visant à répondre à une préoccupation majeure dans l'aviation, les pilotes affligés d’une incapacité. Celle-ci réfère à toute situation où un pilote devient incapable d'assumer ses responsabilités normales en raison d'un problème de santé ou de tout autre problème, comme la fatigue. « Nous visons le développement de modèles capables de prédire les risques d’incapacité à piloter de façon non intrusive, à partir de l’information collectée dans la cabine de pilotage. Les résultats préliminaires montrent que nos chances d’y parvenir sont bonnes, ce qui permettra une meilleure gestion du temps de travail des pilotes, par exemple. »

Un coup d’accélérateur sur la science

En tant que scientifique, le Pr Khomh pense que l’IA promet de faire faire des bonds de géant à la recherche. « Nous n’en sommes qu’aux balbutiements, mais dans les prochaines années émergeront des IA plus complexes que les modèles de langue, qui permettront aux chercheurs de valider leurs hypothèses scientifiques et qui pourront également leur suggérer des hypothèses nouvelles. »

La quête de la technologie parfaite

Malgré l'engouement suscité par les compétences des modèles de langage actuels, comme ChatGPT, le chercheur conserve un regard critique à leur égard. « Je consacre mon attention aux défauts, aux erreurs et à la lisibilité de ces modèles. Je m'interroge sur les raisons de leur divergence par rapport à nos attentes, ainsi que sur les moyens de les aligner sur celles-ci », précise-t-il.

Il se préoccupe aussi d’une utilisation ignorante de leurs limites. « Ces modèles génératifs peuvent sembler produire des solutions professionnelles de qualité en surface, mais, sans expertise, il est difficile de juger de la qualité réelle du contenu. Leur qualité s'améliorera sans doute avec le temps, mais des risques de dommages subsistent. Des études révèlent que plus les gens utilisent ces assistants au quotidien, moins ils restent vigilants. »

Le Pr Khomh convient que les utilisateurs doivent s’instruire du bon usage de ces outils, mais il le regrette : « Si on doit acquérir de nouveaux apprentissages pour utiliser une technologie, c’est qu’elle n’est pas parfaite. Une technologie parfaite comprendrait les tâches qu’on lui demande et les exécuterait de façon fiable, autonome et sécuritaire, quel que soit le comportement de son utilisateur. Elle ne demanderait pas de développer des compétences particulières pour la faire fonctionner. Pour moi, c’est la quête ultime! »

À lire aussi

7 décembre 2021
NOUVELLES

Intelligence artificielle : une chaire en IA Canada-CIFAR pour le professeur Foutse Khomh

4 avril 2022
Magazine Poly

L’IA et la sécurité : enjeux et promesses