
Le Magazine de Polytechnique Montréal
IA : une génération attentive aux échos du futur

Gaetan Butault et Bintou Seni. (Photo : Thierry du Bois)
Bintou Seni et Gaetan Butault, respectivement en 4e année et en 3e année de baccalauréat en génie logiciel, représentent une génération qui s’approprie l’IA avec enthousiasme et de nombreux questionnements. Ils nous font part de leurs réflexions et de leur vision de l’avenir qui se dessine à travers les lignes de code.
Racines de leur intérêt
« Je fais de la programmation informatique depuis mes 10 ans. J’ai commencé à m’intéresser spécifiquement à l’IA vers mes 14 ans, lorsque j’ai eu connaissance des résultats obtenus par DeepMind avec son système d'apprentissage profond. Celui-ci a pu apprendre à jouer à des jeux Atari 2600 à partir de données brutes, simplement en regardant l'écran et en recevant des récompenses ou des punitions. Cet exploit a attisé ma curiosité mathématique », témoigne Gaetan. En parallèle de ses études, celui-ci travaille à titre de chercheur développeur IA junior au Centre de développement et de recherche en intelligence numérique (CDRIN).
Bintou, quant à elle, s’est surtout intéressée au sujet en commençant ses études à Polytechnique. « Comment fonctionnent les systèmes de reconnaissance des objets? Jusqu’à quel point la machine est capable d’imiter le comportement du cerveau humain? Ces questions m’ont d’emblée captivée. »
Ouvrir plus grand les portes de l’IA à la communauté étudiante
Ces passionnés se plongent également dans l’univers de l’IA par leur implication dans la vie étudiante. Ils sont, en effet, tous deux membres de PolyAI, le regroupement étudiant qui vise à rendre l'intelligence artificielle plus accessible à la communauté étudiante.
« PolyAI organise diverses activités telles que des ateliers d’apprentissage organisés en collaboration avec des entreprises, ainsi qu’un populaire hackathon de 48 heures, le CodeML, explique Bintou, directrice Cohésion de PolyAI. Et nous proposons à nos membres de réaliser des projets de conception très variés. Nous avons, par exemple, développé le logiciel de Poly-Tri, une poubelle intelligente capable de trier les déchets. D’autres sociétés techniques font aussi appel à nous, comme PolyCortex, pour un outil de classification automatique, ou Métis, pour un modèle capable de déterminer les intentions de mouvement d’un patient à partir de signaux électromyographiques. »
Usage de l’IA dans leur quotidien
Faisant preuve de la plus grande prudence quand il s’agit de partager ses données, Gaetan refuse de recourir aux outils d’IA en ligne, tels que ChatGPT. « Tous les modèles d’IA que j’utilise sont des langages libres (open source) hébergés sur mon propre serveur. Depuis que j’étudie à Polytechnique, je suis encore plus vigilant et j’évite les services offerts par les GAFA. Même pour mon adresse courriel personnelle, j’emploie un service de messagerie électronique sécurisé », rapporte le jeune expert, que vous rechercheriez en vain sur les médias sociaux les plus populaires.
De son côté, Bintou semble avoir une approche plus détendue de ces outils. « J’utilise fréquemment ChatGPT pour corriger mes courriels ou pour faire des recherches sur des sujets précis. Mais je veille toujours à ne pas lui fournir d’informations privées. »
Transformation de l’apprentissage : pour le meilleur ou pour le pire?
L’étudiante s’interroge sur la direction que prendra le système scolaire sous l’influence de cette révolution numérique. « Est-ce que les jeunes vont moins solliciter leurs facultés cognitives ou, au contraire, devenir beaucoup plus performants grâce à l’IA? Verra-t-on apparaître des générations de paresseux ou de surdoués? »
En ce qui touche à leur domaine, elle et son collègue s’inquiètent des effets que pourraient avoir les outils d’IA générative sur l’apprentissage du codage. « En 3e ou 4e année, on commence à posséder assez d’expertise pour détecter d’éventuelles erreurs dans les codes fournis par ChatGPT. Mais les étudiants en première année qui prennent l’habitude de l’utiliser pour obtenir sans peine le code d’une fonction ne seront sans doute pas capables de repérer ces erreurs, ni de résoudre les problèmes complexes qui les attendent les années suivantes. Finalement, cet outil risque de rendre l’apprentissage plus difficile! », souligne Gaetan. Celui-ci pense qu’une adaptation des travaux est possible, par exemple avec des questions qui piègent l’IA, pour montrer aux étudiants les limites de cet outil.
« Au cours des premières années de notre bac, nous travaillons beaucoup avec des algorithmes connus de ChatGPT. Mais rendus aux projets intégrateurs, nous devons résoudre des problèmes plus spécifiques, qui demandent une bonne maîtrise de la logique algorithmique, et là, ChatGPT ne peut plus guère nous aider », ajoute Bintou.
Celle-ci reconnaît cependant que certains outils d’IA peuvent aider les étudiants à être plus performants dans certaines tâches. « Mais c’est toujours la logique algorithmique qui nous permet de passer d’un langage de programmation à un autre. Aucun outil ne peut nous la donner, nous devons l’apprendre. »
Perception sensible des risques
Quelle est leur plus grande inquiétude concernant l’IA? « Personnellement, le fait qu’elle devienne extrêmement bonne en beaucoup de choses ne me fait pas tellement peur, je redoute surtout que la plupart des gens ne pourront avoir aucun contrôle sur elle », déclare Gaetan, très préoccupé par le risque de monopolisation de cette technologie. « Certains acteurs de premier plan essaient de convaincre le Congrès américain de passer des lois pour restreindre le plus possible la diffusion de modèles open source, en arguant que la puissance de l’IA la rend comparable à une bombe nucléaire, à ne pas mettre entre toutes les mains. Or, sans modèles open source, personne ne pourra concurrencer ces grands joueurs, qui tendent déjà à acquérir massivement leurs plus petits concurrents. »
« C’est un vrai danger pour la démocratie, renchérit Bintou. D’autant que dans une situation de monopole, le risque que les outils soient développés avec des biais est accru. Il faut être très attentif aux décisions que prendront les gouvernements pour légiférer en matière d’IA. »
Tous deux se soucient considérablement de la protection de la vie privée, mise à mal par la technologie. « De nos jours, il est déjà simple de suivre les activités en ligne de quelqu'un, mais avec l'IA, le profilage devient encore plus précis, souligne Gaetan. Par exemple, nos échanges avec certains services des GAFA peuvent être analysés et catégorisés par des systèmes d'IA. Il est déjà arrivé qu'un contenu anodin soit mal interprété par ces fournisseurs et signalé à la police. La question se pose : faut-il sacrifier la vie privée au profit de la lutte contre les activités illicites, même si cela expose des innocents à des problèmes judiciaires? »
Sa collègue estime que la sensibilisation du public à un usage sécurisé des outils disponibles est urgente, d’autant plus avec l’Internet des objets et des systèmes qui nous écoutent à notre insu. « Les politiques de confidentialité ne suffisent pas à protéger le public. D’ailleurs, qui prend le temps de lire les formulaires sur le partage des données qu’on autorise? » « Moi, je le fais! », s’esclaffe Gaetan, ajoutant que ces contrats pourraient être davantage concis, précis, et rédigés en termes plus simples.
Ils réagissent aussi à l'émergence des services proposant des « amis » virtuels, qui peuvent offrir à leurs utilisateurs l'illusion d'une relation amoureuse. « C’est étonnant, mais ces services rencontrent un succès, constate Gaetan. Cependant, leur modèle économique repose sur la revente de toutes les informations personnelles partagées par les utilisateurs. »
« Moi, je m’interroge sur les effets de ces services sur la sociabilisation, intervient Bintou. Comment une personne qui se tourne vers une IA parce qu’elle se sent seule serait-elle encouragée à sortir et à s’ouvrir aux gens? »
Concernant la protection de la vie privée, l’un comme l’autre s’entendent pour souligner le danger de partager des données personnelles sans réflexion, sous prétexte de n'avoir rien à cacher. Selon eux, il est préférable de se demander ce qu’on tient vraiment à montrer.
Perspectives d’avenir
Les deux futurs diplômés s’attendent à trouver un marché de l’emploi bouleversé par l’IA. Bintou, qui souhaite travailler aussitôt l’obtention de son baccalauréat – du moins, quelques années, pour financer des études qu’elle envisage de poursuivre plus tard – estime qu’elle trouvera de bonnes opportunités d’emploi. « On observe actuellement une vague de licenciements dans les entreprises technologiques. Mais je la crois due en partie à des attentes démesurées concernant les gains de productivité permis par l'IA. La tendance devrait s'inverser à mesure que de nouveaux emplois seront créés grâce à cette technologie. »
Paraphrasant Ginni Rometty, ancienne PDG d'IBM, Gaetan affirme qu’il ne craint pas de se faire remplacer par une IA, mais de se faire remplacer par quelqu’un qui sait utiliser celle-ci. Après son baccalauréat, il vise le doctorat. « J’ai conservé toute ma curiosité mathématique envers les algorithmes. J’explore actuellement les différents aspects de l’IA : les modèles de langage, les systèmes de vision par ordinateur et de génération d’images. Et je souhaite d’ici la fin de mon baccalauréat travailler sur l’apprentissage par renforcement, afin de choisir la branche qui me plaira le plus pour mon doctorat. »
Tous deux se sentent chanceux d’être aux premières loges pour observer cette révolution numérique. « Nous aurons eu l’occasion de voir l’avant et l’après de la transition. Peu importe où la société sera rendue dans quelques années, nous aurons notre solide formation d’ingénieurs logiciels, nous serons capables de mieux comprendre les évolutions, d’être mieux avertis sur les risques et les enjeux de protection des données, plutôt que de les subir sans les comprendre », conclut Bintou.