Pourquoi une IA générative plus sûre part de solutions conçues par les jeunes, pour les jeunes

« Les jeunes ont une compréhension beaucoup plus profonde des phénomènes qu’eux et leurs amis vivent... Si nous voulons aider les jeunes, nous devons les écouter. »
Dre Simona Gandrabur, Responsable
Studio de sécurité en IA de Mila
L’essor de l’intelligence artificielle générative (l’IA générative) a apporté d’énormes promesses à la société, avec des applications qui peuvent améliorer la productivité, favoriser l’apprentissage et stimuler la créativité. Mais elle comporte aussi des risques, surtout pour les jeunes.1 Trouver des moyens de surmonter ces risques – et de s’assurer que l’IA générative puisse profiter à tout le monde – est la mission de Mila, un institut montréalais reconnu mondialement pour son leadership en recherche sur l’IA.
Le mandat de Mila
Mila regroupe plus de 1 400 experts de partout au Québec qui se spécialisent en apprentissage automatique et en modélisation d’IA générative. Depuis sa création, l’institut concentre ses recherches dans des domaines comme la santé, les changements climatiques et l’éthique de l’IA. Il collabore également avec plus de 120 partenaires de l’industrie, dont Bell, à la recherche appliquée pour développer des solutions d’IA adaptées aux besoins spécifiques des entreprises.
L’objectif de Mila est de faire progresser l’IA au profit de toute la société. Cela signifie également rendre l’IA plus sûre pour les utilisateurs et les utilisatrices. C’est pourquoi, pour souligner la Journée mondiale de la santé mentale en 2025, Mila a lancé le Studio de sécurité en IA. Grâce à cette initiative, la recherche universitaire se transforme en mesures de protection concrètes pour les personnes confrontées à des problèmes de santé mentale résultant de, ou exacerbés par, l’interaction avec les agents conversationnels d’IA générative.
Le nouvel objectif pour l'IA générative : thérapie et accompagnement
Dre Simona Gandrabur dirige le Studio de sécurité en IA de Mila. Elle affirme que sa mission est particulièrement essentielle à la lumière des récentes conclusions de la Harvard Business Review. Les recherches montrent que la thérapie et la compagnie sont désormais les principaux cas d’utilisation de l’IA générative, dépassant l’apprentissage, la recherche et d’autres applications liées à la productivité. Les gens utilisent l’IA générative pour auto-diagnostiquer leurs problèmes de santé mentale, demander des conseils relationnels ou de vie, et certains développent même des relations amoureuses avec des agents conversationnels.
« Ce cas d’utilisation est extrêmement problématique », affirme Gandrabur. « Il existe de sérieux risques qui doivent être abordés grâce à une combinaison de mesures de protection technologiques, de politiques, d'éducation et de la contribution des utilisateurs. »
Pourquoi des thérapeutes d'IA générative ?
Gandrabur affirme qu’il n’est pas surprenant que de nombreuses personnes, en particulier les jeunes, se tournent vers l’IA générative pour trouver de la compagnie et du soutien en matière de santé mentale. D’une part, l’outil est extrêmement accessible. Contrairement à un thérapeute humain, il n’y a pas de temps d’attente pour parler à l’IA générative, et son utilisation est souvent gratuite. On peut interagir avec l’outil en toute discrétion depuis le domicile ou n’importe où ailleurs. De plus, il n’y a aucune crainte de rejet, de jugement ou de critique.
« Ces agents conversationnels sont toujours disponibles ; ils peuvent valider vos convictions et vous rassurer, ce qui crée une illusion de confiance. Mais c’est précisément là que réside le problème. »
Risques pour la santé mentale
Même si un robot de clavardage peut sembler avoir toutes les réponses, en réalité, il ne « sait » rien. Tout ce qu’il peut faire, c’est déduire quelles réponses seraient les meilleures à fournir ensuite en fonction des données sur lesquelles il a été formé. Pour les modèles d’IA générative d’aujourd’hui, ces données de formation comprennent en fait une grande partie de l’Internet. Cela donne à un robot de clavardage un large éventail de points de vue et d’informations à partir desquels il peut formuler ses réponses – certaines utiles, d’autres moins.
Dans de nombreux cas, cela permet d’obtenir des conseils utiles. Mais Gandrabur prévient qu’il existe un risque potentiel si un agent conversationnel n’a pas été formé à partir d’ensembles de données spécifiques aux meilleures pratiques en matière de santé mentale et si ses conseils n’ont pas été validés par un professionnel.
L'engagement en tant qu’objectif
Selon elle, la manière dont les agents conversationnels d’IA générative sont habituellement développés contribue à ce risque. Bien que la fourniture d’informations exactes et utiles soit un objectif de la plupart des agents conversationnels, cet objectif est souvent secondaire par rapport à leur objectif principal : l’engagement. Les développeurs veulent que les gens interagissent avec leurs agents conversationnels le plus longtemps et le plus souvent possible. Pour y parvenir, les agents conversationnels privilégient les réponses que leurs utilisateurs apprécieront et voudront entendre.
Selon Gandrabur, cela peut produire une « chambre d’écho individualisée » où les pensées d’une personne ne sont jamais remises en question. Au fil du temps, la personne compte de plus en plus sur cette rétroaction positive et cette interaction facile et toujours accessible, au lieu de se tourner vers ses amis, sa famille ou des professionnels de la santé mentale. Cela peut entraîner un plus grand isolement et amplifier la détresse psychologique.
« Les communautés LGBTQ2S+, autochtones, francophones, neurodiverses et autres ont des besoins distincts en matière de santé mentale qui ne sont pas toujours pris en compte dans certains modèles à grande échelle. Pour des solutions d’IA générative plus sûres, ces communautés doivent être prises en considération lors du développement. »
Comment Mila rend l'IA générative plus sûre
Gandrabur définit une IA générative « plus sûre » comme des modèles conçus pour éviter les préjudices, fournir des informations fiables, protéger les utilisateurs contre la fraude et être suffisamment sécurisés pour ne pas être utilisés à des fins malveillantes. Le développement et l’adoption de modèles d’IA générative qui répondent à ces critères sont au cœur de son travail avec le Studio de sécurité en IA. En particulier, Mila travaille à rendre plus sécuritaire l’IA générative sous quatre angles : la technologie, les politiques, l’éducation et la contribution de personnes ayant une expérience vécue des problèmes de santé mentale.
Technologie
D’un point de vue technologique, Mila cherche à mettre au point des modèles de garde-fous qui peuvent déceler et maîtriser les schémas d’utilisation à risque. Cela pourrait inclure des filtres pour détecter et bloquer le contenu préjudiciable, comme l’aide au suicide. Cela pourrait également inclure des mécanismes qui permettent d’évaluer objectivement la sécurité d’une technologie. Ou encore des certifications qui permettent aux utilisateurs de savoir qu’une technologie est considérée comme sûre.
La sécurité technologique, c’est aussi créer des solutions d’IA générative qui ne tiennent pas seulement compte des besoins de la majorité. « Les communautés LGBTQ2S+, autochtones, francophones, neurodiverses et autres ont des besoins distincts en matière de santé mentale qui ne sont pas toujours pris en compte dans certains modèles à grande échelle », affirme Gandrabur. « Pour des solutions d’IA générative plus sûres, ces communautés doivent être prises en compte dans le développement. »
Politique
Mila plaide en faveur de règles et de lois qui définissent des structures acceptables pour régir l'utilisation de l'IA générative, à l'instar de la classification des films et de la réglementation de la vente d'alcool. Cela inclut probablement des restrictions d'âge ou d'autres stratégies pour garantir que les enfants et les jeunes reçoivent des contenus générés par l'IA adaptés à leur âge. Pour que ces structures soient efficaces, il est important qu'elles soient assorties de conséquences réelles et exécutoires en cas de non-respect.
Éducation
Pour Mila, l'éducation doit s'adresser à la fois au public et aux professionnels de la santé mentale. Améliorer la compréhension individuelle de ce qu'est l'IA générative (et ce qu'elle n'est pas) peut aider les gens à interagir avec elle de manière plus saine et plus efficace. Favoriser la compréhension professionnelle garantit que les cliniciens sont mieux outillés pour réagir lorsqu'un client semble privilégier un « diagnostic » généré par l'IA plutôt que les conseils de son prestataire de soins de santé mentale ou les commentaires de ses pairs et de sa famille. Pour remédier à cela, Mila plaide auprès du gouvernement pour une meilleure éducation à l'IA dans les salles de classe. Mais un changement à grande échelle peut prendre du temps, c'est pourquoi Mila élabore aussi activement des programmes d'études qui pourraient être intégrés plus tôt dans la formation médicale professionnelle.
Expérience vécue
Enfin, Mila accorde la priorité au fait de faire bénéficier les personnes les plus à risque de préjudices liés à l’IA afin de créer des solutions qui répondent à leurs besoins. Gandrabur affirme qu’il est particulièrement important d’inclure les jeunes.
« Nous, en tant qu’adultes, pensons souvent avoir les réponses parce que nous en savons plus ou que nous avons plus d’expérience. Mais nous avons souvent tort », explique-t-elle. « Les jeunes ont une bien meilleure compréhension des phénomènes qu’eux-mêmes et leurs amis vivent, comme la solitude et l’isolement numérique. Par conséquent, leurs suggestions ont une valeur énorme. Si nous voulons aider les jeunes, nous devons les écouter. »
Une des façons dont Mila fait participer les jeunes adultes au développement de l'IA générative est d'organiser un marathon de programmation dans le cadre d'une collaboration canadienne novatrice avec Bell, Jeunesse, J’écoute et BUZZ HPC. Cet événement vise à créer des solutions novatrices d'IA générative qui permettront aux jeunes Canadiens et Canadiennes d'interagir en toute sécurité avec les outils d'IA générative. Les jeunes se réuniront avec des chercheurs en IA, des scientifiques des données, des professionnels de la santé mentale et d'autres pour tester les limites des agents conversationnels. Ils évalueront le rendement des agents conversationnels et aideront à développer des systèmes et des conseils pour les améliorer.
« Nous, en tant qu’adultes, pensons souvent avoir les réponses parce que nous en savons plus ou que nous avons plus d’expérience. Mais nous avons souvent tort. … Si nous voulons aider les jeunes, nous devons les écouter. »
Une IA générative plus sûre pour la santé mentale et au-delà
Bien que le travail du Studio de sécurité en IA de Mila se concentre principalement sur le fait de rendre l’IA générative plus sûre pour la santé mentale, Gandrabur affirme que ses principes et ses apprentissages sont beaucoup plus largement applicables.
« Les mêmes méthodologies que nous pouvons utiliser pour mesurer le rendement des agents conversationnels et mettre en place des garde-fous pour protéger les gens contre les comportements nuisibles dans le domaine de la santé mentale peuvent s’appliquer tout aussi bien à d’autres domaines », explique-t-elle. « Pourquoi ne pas également empêcher un agent conversationnel de donner de mauvais conseils financiers ou des avis médicaux non qualifiés ? Les solutions que nous développons peuvent également contribuer à réduire ces risques. »
En proposant et en encourageant des solutions qui protègent les jeunes et les autres populations vulnérables, Bell et Mila travaillent à rendre l'IA plus sûre pour tous. Ainsi, l'IA générative peut être un outil utile plutôt qu'une influence néfaste.
Source :
1. https://internationalaisafetyreport.org/publication/international-ai-safety-report-2026#2.3.2.