Carrefour de l'actualité

Défendre la démocratie face aux algorithmes de recommandation

Par Catherine Florès
7 décembre 2023 - Source : Magazine Poly  | VersionPDFdisponible (Automne 2023)
7 décembre 2023 - Source : Magazine Poly
VersionPDFdisponible (Automne 2023)
Lê Nguyen Hoang
Lê Nguyên Hoang, mathématicien, entrepreneur, auteur, vulgarisateur et médiateur scientifique.


Ils choisissent ce que vous regardez, ce que vous consommez, qui deviendra votre ami, et même les idées que vous pourriez adopter… Sous prétexte de simplifier vos choix, les algorithmes de recommandation ne menaceraient-ils pas votre liberté? La réponse est évidente pour Lê Nguyên Hoang, mathématicien spécialisé en informatique théorique, entrepreneur, auteur, vulgarisateur et médiateur scientifique.

Ce diplômé a déjà démontré ses talents de vulgarisateur durant ses études doctorales en mathématiques appliquées à Polytechnique Montréal, en lançant, en 2012, Science4All, une plateforme web de diffusion de contenus scientifiques destinés au grand public (239 000 abonnés aujourd’hui sur sa chaîne YouTube). Ses fonctions de communicateur scientifique et de chargé de recherche à la Faculté informatique et communications de l’École polytechnique fédérale de Lausanne (EPFL), où il est entré en 2016 après un séjour postdoctoral d’un an au MIT, lui ont donné l’occasion d’approfondir sa réflexion sur la nécessité de s’assurer d’une utilisation éthique et bénéfique de l’intelligence artificielle (IA). Il a d’ailleurs coécrit un ouvrage sur le sujet, Le fabuleux chantier*. Il est aujourd’hui à la tête d’une jeune entreprise de cybersécurité, Calicarpa.

En mettant à profit son expertise en éthique des intelligences artificielles, Lê Nguyên Hoang s'engage activement à sensibiliser le public et les décideurs aux risques inhérents aux méthodes d'influence utilisées par les plateformes de diffusion et les réseaux sociaux. Il aspire ainsi à renforcer la préservation des processus démocratiques.

L’attention devenue marchandise

« Actuellement, ChatGPT ou Midjourney inquiètent beaucoup de gens, mais, selon moi, les puissants algorithmes derrière des applications extrêmement populaires, comme Youtube, TikTok, Instagram ou Facebook sont bien plus problématiques, et de loin!, affirme-t-il. Chaque fois qu’on ouvre ces applications, on est exposé à des contenus choisis par une IA, dont le fonctionnement est pour le moins opaque, et qui exploitent sans vergogne les mécanismes psychologiques poussant aux comportements compulsifs. » À cet égard, on se souvient que Facebook avait manipulé le flux d'actualités de 700 000 utilisateurs à leur insu afin d’étudier secrètement la contagion des émotions sur Internet.

Atteinte au débat démocratique

« Ces plateformes, très efficaces pour propager des discours, concentrent une part disproportionnée du marché de l'attention en ligne, détenant ainsi un pouvoir immense sur ce qui est vu et entendu en ligne. Ça soulève des questions de liberté d'expression et de démocratie », souligne M. Hoang.

Il rappelle que les plateformes sociales montrent aux utilisateurs un contenu correspondant à leurs préférences et opinions, créant ainsi des « bulles de filtre » qui renforcent les biais existants et polarisent les opinions. Elles représentent aussi des espaces où peuvent prospérer le harcèlement, la diffamation et l'intimidation en ligne (c’est notamment le cas des scientifiques du climat sur X (anciennement Twitter) qui subissent des torrents d’insultes et de menaces). Cela peut même décourager les personnes ou les groupes qui en sont victimes à participer activement au débat public et même à craindre pour leur sécurité, car, en intensifiant des vagues de haine, les médias sociaux contribuent aux violences dans la vraie vie.

En mettant en avant ou en occultant certains sujets, ces plateformes sont en mesure de détourner l'attention du public de questions importantes ou d’influencer le débat politique dans une direction particulière. Elles peuvent se faire le relais de campagnes de désinformation ou de manipulation de l'opinion publique. Enfin, elles sont également utilisées à des fins d’ingérence électorale et d’influence sur les processus démocratiques.

« Il existe aujourd’hui une industrie de la désinformation extrêmement bien financée. Ainsi, les informations trompeuses pullulent sur ces plateformes. Mais la génération massive de faux comptes par l’IA représente un danger plus grand encore », signale Lê Nguyên Hoang. Capables de contourner les mesures de sécurité des plateformes, des systèmes d'IA peuvent en effet être formés pour s'adapter aux algorithmes de détection de faux comptes mis en place par les plateformes de médias sociaux. L’IA sait aussi personnaliser le contenu des faux comptes en fonction des intérêts et des préférences supposés de la cible. « Certains de ces modèles sont capables de simuler des comportements humains sur les réseaux sociaux, comme interagir avec d'autres comptes, suivre des comptes, aimer des publications, etc. Cela contribue à les rendre crédibles. Grâce à leur nombre, les faux comptes parviennent à amplifier certains messages et à leur fabriquer une popularité, manipulant ainsi les algorithmes de recommandation. »

Établir de nouvelles exigences de transparence et de conformité

Comment alors la démocratie peut-elle se défendre contre l’influence de réseaux pas si « sociaux »? « C’est la question qui me préoccupe actuellement et qui oriente l’essentiel de mon travail, indique Lê Nguyên Hoang. Les institutions publiques doivent élever leur degré d’exigence envers les entreprises en ligne et leur imposer de respecter les lois en vigueur. L’exemple de la publicité est flagrant : le diffuseur d’une publicité à la télévision doit respecter un cadre strict. Ce cadre n’existe plus lorsque la publicité est sur Internet. C’est d’autant plus problématique qu’une grosse partie des financements pour le développement de nouveaux algorithmes d’IA provient des revenus de la publicité ciblée en ligne. Et de cela, la communauté de chercheurs n’en a peut-être pas assez conscience. »

Pour défendre l’état de droit en ligne, l’expert défend notamment le principe de la présomption de non-conformité : « À l’instar des industries pharmaceutiques ou de l’aviation, les acteurs du numérique devraient démontrer la conformité de leurs algorithmes aux lois et se certifier pour obtenir l’autorisation de les déployer à grande échelle. Je crois que les institutions publiques devraient soutenir massivement des organismes indépendants d'audit et de régulation des algorithmes les plus puissants. »

M. Hoang est le cofondateur et président du projet à but non lucratif Tournesol (tournesol.app), une plateforme ouverte destinée à concevoir de manière collaborative des algorithmes de recommandation de contenu d'utilité publique. « Nous travaillons sur des solutions d’algorithmes démocratiques. C’est-à-dire que le comportement des algorithmes devra résulter d’un vote obtenu par un processus fiable et transparent. Ainsi, les contenus les plus recommandés seront ceux qui ont réellement remporté le meilleur suffrage des citoyens. »

Donner plus d'indépendance au milieu universitaire vis-à-vis de l'industrie numérique serait un autre moyen de promouvoir une gouvernance plus saine des algorithmes, affirme l'expert. « Le Digital Services Act récemment adopté en Europe va dans cette direction, en autorisant les chercheurs universitaires à accéder aux données des entreprises du numérique. De plus, il oblige les plateformes en ligne à mettre en place des mécanismes pour prévenir et supprimer les contenus illicites, tout en donnant aux utilisateurs les moyens de les signaler. »

M. Hoang conclut que nous devrions tous, en tant que citoyens, réfléchir davantage à notre utilisation des réseaux sociaux. Il en appelle à une vision moins individuelle des recommandations dans ces médias. « Souvenons-nous que ce qui est recommandé aux autres peut nous mettre en danger. »


* Publié en 2019 aux Éditions EDP Sciences.
 

En bref

  • Le diplômé Lê Nguyên Hoang est préoccupé par l'influence exercée par les algorithmes de recommandation sur les contenus visibles par les utilisateurs. Ces algorithmes, souvent opaques, exploitent des mécanismes psychologiques pour stimuler des comportements compulsifs.
     
  • Les plateformes sociales influent sur les opinions en créant des « bulles de filtre » qui renforcent les biais existants, polarisent les opinions et peuvent favoriser le harcèlement en ligne.
     
  • Lê Nguyên Hoang suggère d'augmenter les exigences de transparence et de conformité des entreprises en ligne pour contrer l'influence néfaste des plateformes, notamment par l'établissement de mécanismes de certification similaires à ceux d'autres industries régulées pour les algorithmes d'IA.

À lire aussi

9 juillet 2012
NOUVELLES

Un étudiant de Polytechnique Montréal lance une plateforme web de diffusion de contenu scientifique vulgarisé

8 mai 2019
Magazine Poly

Projet PC2 développe un outil web pour les personnes ayant une déficience visuelle