Skip to main content

L’importance d’adopter un programme d’intelligence artificielle responsable

Par Alan Khalil, directeur, produits d’intelligence artificielle, Bell Marchés Affaires 

Deux professionnels d’affaires envisagent l’avenir de l’IA responsable en affaires.

Par Alan Khalil, directeur, produits d’intelligence artificielle, Bell Marchés Affaires Au cours de la dernière décennie, mes collègues et moi avons développé des solutions de données et d’intelligence artificielle chez Bell pour favoriser de nouvelles opportunités d’affaires novatrices. Ce cheminement a été incroyable, régi non seulement par des politiques internes rigoureuses pour s’assurer que chaque solution répond aux attentes de nos clients en matière de protection de la vie privée et des données, mais aussi par les diverses réglementations fédérales qui régissent l’information et la sécurité. Ainsi, il était nécessaire de se conformer à la Loi sur la protection des renseignements personnels et les documents électroniques, de se préparer au projet de loi C-27 (Loi sur la mise en œuvre de la Charte du numérique) et de respecter des réglementations plus générales comme la Loi sur la sécurité des produits de consommation, la Loi sur les droits de la personne et même le Code criminel.  

Cependant, en 2022, OpenAI1 a changé la donne en lançant ChatGPT en utilisation gratuite. Soudain, l’intelligence artificielle n’était plus un sujet réservé seulement aux technophiles. Le monde entier pouvait désormais faire l’expérience de la puissance (et de la magie) de l’intelligence artificielle. L’enthousiasme a été ressenti à l’échelle mondiale. 

Cette excitation s'est accompagnée d'une certaine prudence. Qu’adviendrait-il de la confidentialité des données, des emplois et de notre société en général? Il est devenu évident que nous entamions une nouvelle ère industrielle et que les consommateurs, les spécialistes et les chercheurs réfléchissaient à des réglementations pour assurer notre sécurité et notre bien-être. Les gouvernements ont été appelés à agir rapidement (plus rapidement que jamais) pour se préparer à cette nouvelle ère passionnante de l’intelligence artificielle. La course à l’IA était lancée!

La Loi canadienne sur l’intelligence artificielle et les données (LIAD) : 

Le gouvernement du Canada a initié la réglementation de l’IA en juin 2022, avec la publication de la Loi sur l’intelligence artificielle et les données (LIAD)2 dans le cadre du projet de loi C-273. Cependant, il manquait des définitions clés dans la LIAD. Par exemple, qu’est-ce qu’un « système d’IA à incidence élevée »? En réponse, le gouvernement canadien a publié un document complémentaire en mars 2023 avec des précisions sur la portée et les définitions de la LIAD. 

Il existe un certain nombre de ressources qui font un excellent travail de résumé de la LIAD (et du C-27 dans son ensemble). Voici un bref aperçu : 

La LIAD réglementera les systèmes d’IA à incidence élevée, notamment : 

  • Les systèmes de présélection qui ont une incidence sur l’accès aux services ou à l’emploi
    Ces systèmes d’IA sont destinés à prendre des décisions, à formuler des recommandations ou des prédictions à des fins d’accès à des services, tels que le crédit ou l’emploi. 

  • Les systèmes biométriques utilisés pour l’identification et l’inférence
    Certains systèmes d’IA utilisent les données biométriques pour faire certaines prédictions sur les personnes. Par exemple, pour identifier une personne à distance, ou faire des prédictions sur les caractéristiques, la psychologie ou les comportements des individus. 

  • Les systèmes capables d’influencer le comportement humain à grande échelle
    Il a été démontré que des applications telles que les systèmes de recommandation de contenu en ligne alimentés par l’IA ont la capacité d’influencer, et ce à grande échelle, le comportement, l’expression et les émotions des êtres humains.
     
  • Les systèmes essentiels pour la santé et la sécurité
    Certaines applications d’IA sont intégrées dans des fonctions de santé et de sécurité. Par exemple, pour prendre des décisions ou émettre des recommandations cruciales en se basant sur des données recueillies à partir de capteurs. Il s’agit notamment des systèmes de conduite autonome et des systèmes faisant des décisions de triage dans le secteur de la santé. 


Pour toute personne qui construit, gère ou met ces systèmes à la disposition de tous, certaines obligations doivent être respectées, notamment : 

  • Supervision humaine et surveillance :
    Les systèmes doivent être conçus et développés de façon à permettre aux personnes qui gèrent les opérations du système d’exercer une supervision importante. Cela implique un niveau d’interprétabilité approprié au contexte. 

  • Transparence :
    Fournir au public des informations appropriées sur la manière dont les systèmes d’IA à incidence élevée sont utilisés. 

  • Justice et équité :
    Construire des systèmes d’IA à incidence élevée en étant conscient du potentiel de résultats discriminatoires. Des mesures appropriées doivent être prises pour atténuer les résultats discriminatoires pour les individus et les groupes. 

  • Sécurité :
    Les systèmes doivent faire l’objet d’une évaluation proactive pour des préjudices qui pourraient résulter de l’utilisation du système, y compris par une utilisation impropre raisonnablement prévisible. Des mesures doivent être prises pour atténuer le risque de préjudice. 

  • Responsabilité :
    Les organisations doivent mettre en place les mécanismes de gouvernance nécessaires pour assurer le respect de toutes les obligations légales des systèmes d’IA à incidence élevée dans le contexte dans lequel ils seront utilisés. 

  • Validité et robustesse :
    La validité signifie qu’un système d’IA à incidence élevée fonctionne conformément aux objectifs prévus.
    La robustesse signifie qu’un système d’IA à incidence élevée est stable et résilient dans diverses circonstances. 

La LIAD devrait être mise en œuvre au plus tôt en juillet 2025, ce qui laissera le temps aux entreprises de s’adapter. Mais que se passera-t-il d’ici là? Et comment s’assurer que les systèmes d’IA à impact non élevé sont développés de manière responsable, sachant que ce sujet n’est pas actuellement abordé dans la loi?

Politique en matière d’intelligence artificielle responsable de Bell 

Chez Bell, notre priorité est désormais de développer et d’utiliser les technologies d’IA de manière responsable, en restant fidèles à notre éthique des affaires et en respectant nos obligations sociales et nos objectifs en matière de protection de la vie privée et de sécurité. Pour appuyer ces engagements, nous avons publié un aperçu des principes directeurs que nous suivons lors de la conception et de la construction de systèmes d’IA : 

Principe directeur Engagement 
Déploiement responsable et sécuritaire 
  • S’efforcer de développer des systèmes d’IA transparents et explicables. 
  • Créer des modèles et des systèmes d’IA exempts de préjugés contraires à l’éthique qui pourraient nuire à tout groupe ou individu. 
  • Se conformer aux règlements et aux normes liés au développement et au déploiement de l’intelligence artificielle. 
Autonomisation et responsabilisation des utilisateurs
  • Tenir les personnes et les équipes responsables de la conformité au cadre de gouvernance de l’IA de Bell et des résultats des systèmes d’IA. 
  • Mettre en œuvre un programme de sensibilisation et de formation à l’intelligence artificielle pour s’assurer que tous les employés sont adéquatement formés aux tâches associées à leurs rôles. 
Leadership en matière de recherche et d’innovation
  • Maintenir un ensemble d’objectifs communs relatifs à l’IA et s’appliquant à l’ensemble de l’entreprise, et s’assurer de sa conformité aux normes changeantes de l’industrie.
Gouvernance et transparence robustes
  • Mettre au point une politique globale en matière de gouvernance de l’IA avec des responsabilités claires afin de minimiser les risques.  
  • Établir une approche cohérente pour l’évaluation et la production de rapports sur la performance des systèmes d’IA.  
  • Assurer la disponibilité des ressources nécessaires pour maintenir et améliorer le cadre de gouvernance de l’IA de Bell. 
Approche proactive de la gestion des risques 
  • Effectuer des évaluations des risques pour les projets d’intelligence artificielle en identifiant les résultats négatifs potentiels et les mesures d’atténuation. 
  • Surveiller continuellement l’utilisation des applications d’intelligence artificielle afin de réagir rapidement aux problèmes ou préoccupations potentiels. 


Pour mettre en œuvre ces principes, nous avons créé des processus tout au long du cycle de vie de la livraison et de la gestion de nos systèmes d’IA. Cela comprend la gouvernance au niveau de la haute direction, les processus automatisés de conformité des données et la surveillance automatisée des mesures à haut risque touchées par les résultats du modèle.  

De plus, nous avons porté une attention particulière au développement rapide de nouveaux algorithmes et modèles frontière en concevant un programme flexible qui peut réagir aux changements futurs potentiels et les intégrer avec agilité. 

 

Innover de façon responsable 

Je suis très enthousiasmé par le potentiel de l’intelligence artificielle : comment elle peut transformer notre façon de travailler, d’interagir et de faire des affaires. Elle contribue déjà de façon importante à nos propres activités d’exploitation du réseau, de centre de contact et de marketing numérique, tout en augmentant la productivité des employés. Et avec les solutions d’intelligence artificielle et de données, comme l’analytique des conversations et le Google Cloud Contact Center AI (CCAI) de Bell, nous sommes impatients d’étendre la valeur de l’intelligence artificielle à nos clients également. 

Cela dit, je reconnais également les risques qui y sont associés et la responsabilité que nous avons tous de faire tout ce que nous pouvons pour protéger les personnes, notre environnement et la société. Cela exige de la diligence, de l’attention et un engagement profond à établir des principes internes clairs ainsi que l’adoption de la LIAD, une fois qu’elle sera en place.  

Je suis convaincu qu’en adoptant des politiques d’intelligence artificielle responsables au sein de Bell, nous pouvons continuer de bâtir pour demain tout en honorant la confiance de longue date que nos clients nous accordent depuis plus d’un siècle. 


À propos de l’auteur 

Alan dirige les pratiques d’intelligence artificielle et d’ingénierie des données chez Bell Canada. Il est responsable de la mise en œuvre du plan directeur stratégique des pratiques des données et de l’intelligence artificielle. Alan est passionné par l’intelligence artificielle et son immense potentiel d’affaires. Il a dirigé de nombreuses initiatives d’intelligence artificielle dans le Marché Consommateurs et les Marchés Affaires chez Bell et s’engage à travailler avec les entreprises canadiennes et les gouvernements alors qu’ils poursuivent leur parcours de transformation numérique.