Sélection de la langue

Recherche

Explorer l'utilisation de l'intelligence artificielle dans la fonction publique (FON3-V10)

Description

Cet enregistrement de l'événement Ce qui nous unit et nous définit : les valeurs et l'éthique à la fonction publique présente une discussion sur l'utilisation grandissante de l'intelligence artificielle (IA) ainsi que sur les difficultés et les possibilités qu'elle présente au sein de la fonction publique.

Durée : 01:59:54
Publié : 3 mars 2025
Type : Vidéo


Lecture en cours

Explorer l'utilisation de l'intelligence artificielle dans la fonction publique

Transcription | Visionner sur YouTube

Transcription

Transcription : Explorer l'utilisation de l'intelligence artificielle dans la fonction publique

[00:00:00 Page de titre de l'EFPC. Texte à l'écran : Ce qui nous unit et nous définit; Les valeurs et l'éthique à la fonction publique.]

[00:00:08 Nathalie Laviades Jodouin apparaît en plein écran et s'adresse au public depuis un pupitre. Texte à l'écran : Nathalie Laviades Jodouin, vice-présidente, École de la fonction publique du Canada.]

Nathalie Laviades Jodouin : Bienvenue. Pour ceux et celles d'entre vous qui sont ici à Ottawa, je vous invite à prendre place. Re-bienvenue tout le monde. Un programme passionnant nous attend, alors que nous portons notre attention sur le rôle de l'intelligence artificielle et ses liens avec les valeurs de la fonction publique.

Mais avant tout, je voudrais prendre un moment pour parler de quelques-uns de nos autres événements régionaux. Nous avons déjà mentionné des événements qui se sont déroulés aujourd'hui dans l'est et le centre du Canada, ainsi qu'à Iqaluit. Parlons maintenant de l'ouest. Nous saluons Jean-François Tremblay et Naina Sloan, qui mènent des discussions avec des fonctionnaires fédéraux à Vancouver. À Calgary, Chris Forbes et Raj Thuppal organisent également une discussion informelle pour aborder les thèmes soulevés lors du symposium. À Regina, Bryan Larkin, Sam Hazen et Shannon Grainger animent une discussion sur les valeurs et l'éthique au Musée du patrimoine canadien. À Winnipeg, Gina Wilson et Diane Gray sont au Red River College pour une table ronde présentant différents points de vue sur nos valeurs et notre éthique communes. Dans le nord-ouest, à Whitehorse, David Millar, de Parcs Canada, organise une table ronde sur les principaux enseignements du symposium. À Yellowknife, Valerie Gideon et Chris Fox se trouvent au centre d'amitié Tree of Peace pour discuter des principaux thèmes abordés lors du symposium.

Je tiens à remercier tous ceux et celles qui se sont rassemblés aujourd'hui, en groupes, en équipes et en ministères, en organismes et en régions, ainsi qu'en missions. Avant de présenter notre prochain invité, nous commencerons la séance par une brève vidéo mettant en lumière les thèmes de l'intendance et de l'excellence.

[00:02:11 La vidéo s'ouvre sur la page de titre. Texte à l'écran : Réflexions sur nos valeurs : intendance.]

[00:02:14 Dylan Jenkins apparaît en plein écran. Texte à l'écran : Dylan Jenkins, Services aux Autochtones Canada, Ottawa, ON.]

Dylan Jenkins : La valeur de l'intendance. Il s'agit de prendre soin des ressources. Il s'agit des gens. Ce sont toujours les gens qui passent en premier.

[00:02:20 Franco Pagotto apparaît en plein écran. Texte à l'écran : Franco Pagotto, Santé Canada, Ottawa, ON.]

Franco Pagotto : Nous essayons d'être aussi transparents que possible.

[00:02:24 La vidéo montre une personne travaillant dans un laboratoire, et revient à Franco Pagotto en plein écran]

Franco Pagotto : Ainsi, du plus haut niveau de gouvernement jusqu'à mon supérieur immédiat, chaque sou que je dépense dans mon laboratoire pour effectuer le travail est comptabilisé.

[00:02:32 Natasha Cote-Khan apparaît en plein écran. Texte à l'écran : Natasha Cote-Khan, Services publics et Approvisionnement Canada, London, ON.]

Natasha Cote-Khan : Je ressens une grande responsabilité dans la conception d'un système qui fonctionne bien, afin que les gens restent,

[00:02:37 La vidéo montre des personnes dans divers espaces de travail du gouvernement]

Natasha Cote-Khan : qu'ils aient une expérience agréable et qu'ils se souviennent de leurs années avec tendresse et joie.

[00:02:44 La vidéo montre la page de titre. Texte à l'écran : Réflexions sur nos valeurs : intendance.]

[00:02:48 Honey Dacaney apparaît en plein écran. Texte à l'écran : Honey Dacaney, Secrétariat du Conseil du Trésor du Canada, Toronto, ON.]

Honey Dacaney : L'excellence est l'aboutissement de toutes les autres valeurs mises de l'avant. Ainsi, l'intégrité, le respect envers les personnes, le respect de la démocratie et l'intendance.

[00:03:01 Mireille Lacroix apparaît en plein écran. Texte à l'écran : Mireille Lacroix, Agence de la santé publique du Canada, Ottawa, ON.]

[00:03:05 La vidéo montre des personnes dans divers espaces de travail du gouvernement]

Mireille Lacroix : On n'a pas toutes les réponses. On s'ouvre ensuite à avoir de la curiosité, à reconnaître les contributions que les autres gens peuvent apporter à notre travail pour nous aider à avoir un résultat qui serait meilleur pour tous.

[00:03:15 La vidéo se termine par la page de titre du symposium. Texte à l'écran : Ce qui nous unit et nous définit; Les valeurs et l'éthique à la fonction publique.]

[00:03:18 Nathalie Laviades Jodouin apparaît en plein écran]

Nathalie Laviades Jodouin : L'excellence est l'un de nos objectifs fondamentaux, qui consiste notamment à trouver des solutions créatives et innovantes aux défis complexes auxquels nous sommes confrontés. L'intelligence artificielle est un domaine qui a eu d'importantes répercussions sur l'excellence et l'intendance de la fonction publique. C'est l'objet de notre prochain segment.

Avant de céder le micro à notre conférencier principal, nous allons mener un autre sondage rapide pour avoir une idée du rôle que joue l'IA dans votre travail quotidien et pour préparer le terrain pour la discussion.

[00:03:53 Écran divisé : Nathalie Laviades Jodouin, et les résultats du sondage Wooclap]

Nathalie Laviades Jodouin : Donc, comme nous l'avons fait plus tôt ce matin, vous y êtes maintenant habitués : wooclap.com, VEOCT pour ouvrir le sondage. La question est, Utilisez-vous l'intelligence artificielle au travail? Est-ce que vous utilisez l'intelligence artificielle au travail? Nous allons donc examiner les réponses. Il y a une égalité, ou presque, entre l'utilisation régulière et l'utilisation occasionnelle. Oh, l'utilisation occasionnelle est maintenant en train de monter. Intéressant. Je n'ai jamais utilisé l'IA au travail, à 32 %. Continuez à nous envoyer vos réponses. Voyons. On peut donc dire que la plupart d'entre vous l'utilisent régulièrement ou occasionnellement, mais qu'une bonne partie ne l'ont jamais utilisé au travail. Ce sera donc intéressant pour la discussion à venir. Continuez à nous les envoyer. Nous voulons être en mesure d'avoir ces réponses. Il s'agit d'une information très utile.

[00 :05 :13 Nathalie Laviades Jodouin apparaît en plein écran]

Nathalie Laviades Jodouin : Alors, comme nous l'avons mentionné, l'accent mis sur l'intelligence artificielle, ces progrès s'accompagnent d'une grande responsabilité, car nous devons les utiliser à la fois de manière éthique et efficace. Et c'est ce que notre prochain invité va aborder justement, en parlant des opportunités et des défis que l'intelligence artificielle apporte à nos rôles et le lien entre ces considérations et les valeurs et l'éthique dans la fonction publique. Donc j'ai maintenant le plaisir de vous présenter Dominic Rochon, qui est sous-ministre et dirigeant principal de l'information au Secrétariat du Conseil du Trésor du Canada. La parole est à vous M. Rochon. Merci.

[00:05:53 Dominic Rochon entre en scène, puis apparaît en plein écran. Texte à l'écran : Dominic Rochon, sous-ministre et dirigeant principal de l'information, Secrétariat du Conseil du Trésor du Canada.]

Dominic Rochon : Merci beaucoup Nathalie. Bonjour tout le monde. Bonjour tout le monde. Je suis ravi d'être ici et de participer à cette conversation très importante que nous avons eue ces deux derniers jours. J'ai constaté que nous avons parlé des valeurs et de l'éthique sous de nombreux angles différents, et j'ai écouté attentivement. J'espère que toutes ces conversations ont stimulé la pensée et la réflexion chez vous autant que chez moi, puisque j'étais assis au premier rang. Et je sais que peu de gens se sont aventurés en avant, alors j'espère que je n'ai effrayé personne avec cette conversation. Mais en écoutant attentivement ces deux derniers jours, j'ai beaucoup réfléchi.

Dès la prière traditionnelle d'ouverture prononcée hier par l'aînée Verna, nous avons entendu parler de la notion de réflexion sur sept générations, et je n'ai pas pu m'empêcher de réfléchir au fait que nous arrivons à peine à trouver une solution aux problèmes d'aujourd'hui, alors imaginez avoir à réfléchir à sept générations. Je crois que c'est le greffier qui l'a le mieux exprimé dans son discours d'ouverture hier, lorsqu'il a dit que nous étions ici pour apprendre, et les conférenciers principaux et les tables rondes qui se sont succédé jusqu'à présent m'ont certainement donné à réfléchir sur le chemin parcouru par notre fonction publique.

Je constate que nous réfléchissons à la manière dont nous nous comportons, dont nous nous traitons les uns les autres. Les mots sont toujours importants et, si je puis me permettre, même les choses les plus simples comme la façon dont nous nous habillons, ou même le lieu où; nous travaillons, peuvent rapidement devenir très controversées. Ce ne sont pas des questions qui ont nécessairement fait l'objet de débats intenses lorsque mon grand-père, ou même mon père, ont fait leur carrière en tant que fonctionnaires. Mais vous remarquerez que je porte un costume et une cravate pour m'adresser à vous tous. Et vous serez peut-être surpris d'apprendre le nombre de fois où; l'on se moque de moi pour ma tenue vestimentaire, en particulier dans les milieux de TI, où; l'on me reproche d'être trop formel et où; l'on menace de brandir une paire de ciseaux la prochaine fois que je me présenterai avec une cravate. Pourtant, en tant que fils d'un diplomate de carrière, la sagesse de mon père, qui recommandait de s'habiller d'une certaine manière par respect pour les personnes que l'on allait rencontrer, résonne toujours à mes oreilles. De simples questions sur les valeurs, l'intégrité et le respect se posent donc, et des crises de conscience peuvent survenir à tout instant pour la moindre des choses. Et ce, avant même d'aborder le sujet de la technologie, en constante évolution.

En tant que dirigeant principal de l'information du gouvernement fédéral, j'aimerais vous parler de la manière dont les valeurs et l'éthique de la fonction publique doivent représenter la pierre angulaire de l'utilisation de l'intelligence artificielle au sein du gouvernement. Bien sûr, aujourd'hui, tout le monde parle de l'IA. En fait, je ne pense pas qu'il y ait eu un conférencier ou un panel qui n'ait pas mentionné l'IA au cours des deux jours que nous avons passés ici, et il ne se passe pas un jour sans que l'on me pose des questions sur l'IA. Pour le commun des mortels, l'IA semble être cette révolution qui nous est tombée dessus et qui va nous transformer, que vos services de TI vont simplement saupoudrer un peu de poussière d'IA sur les produits et les services et que les choses vont s'améliorer comme par magie. Mais c'est bien sûr beaucoup plus complexe, car la façon dont nous utilisons l'IA est, au fond, une conversation sur les valeurs et l'éthique. Et c'est de ça que je veux parler aujourd'hui.

J'ai résisté à l'envie de créer en trois minutes un avatar qui pourrait interagir avec vous, sur l'écran géant derrière moi, et vous faire découvrir divers cas d'utilisation de l'IA. Et honnêtement, je n'ai même pas utilisé Wooclap, bien que Nathalie ait posé une question, et je crains donc d'avoir choisi un moyen beaucoup plus traditionnel pour vous transmettre mon message. Si j'ose dire, je serai peut-être un peu ennuyeux. Je dirai simplement que j'espère établir un cadre pour le débat qui va suivre, et je suis certain qu'il y aura de nombreuses occasions de créer une dynamique beaucoup plus entraînante et animée. Alors, en attendant que le panel arrive, soyez indulgents avec moi. L'IA, bien sûr, n'est pas quelque chose de particulièrement nouveau. Nous l'utilisons depuis les années 1950, mais ces dernières années, cette technologie a évoluée au point d'ouvrir la voie à toutes sortes de nouvelles façons de faire qui nous permettront de travailler plus efficacement et de mieux servir les Canadiens et Canadiennes. Parallèlement, elle peut aussi avoir des conséquences déterminantes sur la vie des personnes que nous servons. Elle doit donc être utilisée de manière responsable et éthique. Nathalie l'a mentionné dans son discours d'ouverture. J'ai choisi de m'inspirer de l'univers des bandes dessinées Marvel en disant qu'un grand pouvoir vient avec une grande responsabilité.

L'adoption générale de l'IA générative et le fait que ces outils seront entre les mains de tous, si ce n'est déjà le cas, doivent être régis par des mesures de sécurité et utilisés de manière responsable, afin de prévenir et d'éliminer les préjugés, de protéger les droits de la personne et les institutions démocratiques, et de renforcer la confiance du public. Oui, l'IA a un grand pouvoir de transformation, mais fondamentalement, cette révolution consiste à gérer le changement tout en étant guidé par nos valeurs et notre éthique, et c'est ce à quoi nous travaillons au sein du gouvernement.

Avant d'aborder ce que j'appelle les lignes de conduite morales, j'aimerais préparer le terrain en examinant le paysage plus large de l'IA au Canada. Le Canada est un chef de file en matière d'intelligence artificielle et d'apprentissage profond depuis les années 1990. Grace à des innovateurs comme Geoffrey Hinton. Je crois que le greffier a mentionné qu'il avait récemment reçu le prix Nobel de la paix, ou plutôt le prix Nobel de physique. Et Yoshua Bengio ainsi qu'à des investissements précoces essentiels effectués par les gouvernements fédéral et provinciaux. Le Canada a été le premier pays au monde à mettre en place une stratégie nationale en matière de l'IA. Aujourd'hui, les progrès rapides de l'IA générative, plus particulièrement, permettent de libérer un immense potentiel pour notre pays, ce qui améliore considérablement la productivité, en réduisant le temps consacré à des tâches nécessaires mais laborieuses ou répétitives. L'IA a également un potentiel remarquable pour rendre le monde plus accessible aux personnes en situation de handicap, en leur permettant d'accéder à de nouvelles capacités qui étaient auparavant hors de portée. Le milieu de la recherche et les entreprises utilisent l'IA pour créer d'incroyables nouvelles innovations et possibilités d'emploi dans toutes les sphères de l'économie canadienne, de la découvertes de médicaments à l'efficacité énergétique, en passant par l'innovation en matière de logement et l'amélioration des soins dans les hôpitaux.

Ainsi, la transformation que nous observons dans l'ensemble du Canada en ce qui concerne l'IA est en effet considérable. Au sein du gouvernement fédéral, nous avons développé notre propre capacité à exploiter l'IA et d'autres outils automatisés de manière responsable. Notre approche du développement et du déploiement de l'IA, centrée sur l'humain, donne la priorité à la transparence, à la responsabilité et à l'équité dans la prise de décision automatisée, et plusieurs ministères sont impliqués dans le développement de notre écosystème d'IA. Innovation, Sciences et Développement économique Canada s'occupe de la réglementation de l'IA pour le secteur privé et du financement des instituts. En effet, depuis 2017, ISDE a supervisé un financement de 2 milliards de dollars pour l'écosystème canadien de l'IA, avec 2,4 milliards de dollars supplémentaires définis dans le budget 2024. Les efforts d'ISDE comprennent, par exemple, l'introduction de la Stratégie pancanadienne en matière d'IA, pour favoriser l'adoption de l'IA dans l'ensemble de l'économie et de la société, ainsi que la création d'un conseil consultatif pour guider la croissance de l'IA, tirer parti de l'expertise et veiller à ce qu'elle soit fondée sur les droits de la personne, la transparence et l'ouverture. Ils sont également à l'origine du projet de loi C 27, qui fait son chemin au Parlement et qui introduira entre autres, s'il est adopté, une loi sur l'intelligence artificielle et les données.

Pour sa part, Affaires mondiales Canada participe au G7, au G20, au Conseil de l'Europe, aux Nations unies et à d'autres forums internationaux en négociant des normes internationales pour l'utilisation éthique de l'IA. Bien entendu, l'École de la fonction publique du Canada a un rôle important à jouer, en mettant en place une campagne de sensibilisation pour informer tous les fonctionnaires de cette technologie transformatrice et en proposant des formations liées à l'IA. Pour sa part, mon ministère, le Secrétariat du Conseil du Trésor, travaille sur les lignes directrices et règles relatives à l'adoption et à l'utilisation responsable de l'IA par les fonctionnaires.

Il va sans dire qu'un grand nombre de ministères et d'organismes, du Conseil national de la recherche à Environnement Canada, Agriculture et Agroalimentaire Canada ou l'Agence spatiale, sont allés bien au-delà d'une simple immersion dans l'IA. Vous entendrez également que le ministère de la Défense, le Centre de la sécurité des télécommunications, Statistique Canada et un certain nombre d'autres ministères et organismes ont déjà mis en place leurs propres stratégies en matière d'IA. Le Bureau du Conseil privé, avec la récente nomination de Mark Schaan au poste de secrétaire adjoint du cabinet pour l'intelligence artificielle, a la lourde tâche de coordonner tous ces éléments. L'IA est donc là. Nous créons un écosystème d'IA au sein du gouvernement, nous investissons de l'argent et nous demandons à chaque fonctionnaire d'en tirer parti.

J'ai mentionné, il y a un instant, que le Secrétariat du Conseil du trésor a instauré une série de politiques, de cadres de gestion du risque et d'outils pour aider la fonction publique à utiliser l'IA de façon responsable. La directive sur la prise de décision automatisée fait partie de ces outils. Les ministères qui utilisent des systèmes décisionnels automatisés pour certains programmes, y compris ceux qui s'appuient sur l'IA, sont tenus de respecter les exigences de la directive. Par exemple, les gens doivent recevoir de l'information significative sur le moment et la façon de recourir à l'automatisation pour prendre des décisions qui les touchent. Les décisions prises par les systèmes d'IA doivent être justes et exactes et les répercussions négatives éventuelles de l'automatisation doivent être continuellement déterminées et minimisées.

J'encourage donc toutes les personnes qui utilisent actuellement l'IA ou qui envisagent de le faire à l'avenir à se familiariser avec cet important instrument de politiques. La directive sur la prise de décision automatisée s'appuie sur l'outils de l'évaluation de l'incidence algorithmique pour aider les fonctionnaires de l'administration fédérale à cerner, évaluer et atténuer les risques liés à l'utilisation de l'IA dans la prise de décision. Par ailleurs, en février, le SCT a publié la deuxième version du guide sur l'utilisation de l'intelligence artificielle générative. Ce guide fournit aux fonctionnaires des conseils, des principes et des pratiques exemplaires sur l'utilisation des outils d'IA génératives et met l'accent sur son utilisation sure et éthique.

Ce guide sur l'utilisation de l'IA générative souligne l'importance de s'aligner sur les principes PRETES, c'est-à-dire Pertinente, Responsable, Équitable, Transparente, Éclairée et Sécurisée. Principes sur lesquels je reviendrai dans un instant. Globalement, tous ces instruments vous aideront, en tant que fonctionnaires, à être plus productifs et à fournir un travail de meilleure qualité, tout en vous aidant, nous l'espérons, à gérer les risques tels que la production d'informations inexactes, l'amplification des stéréotypes ou la compromission de la vie privée et de la sécurité.

Et bien sûr, de nombreux exemples illustrent comment l'IA est aujourd'hui utilisée pour rationaliser les activités du gouvernement. J'en citerai deux rapidement. Emploi et Développement social Canada utilise l'IA pour accroître l'efficacité des processus administratifs, par exemple en évaluant automatiquement la pertinence des commentaires dans les formulaires de relevé d'emploi. L'outil de décryptage de documents d'AMC, ou Doc cracker, mis au point par le ministère, utilise l'IA pour aider les fonctionnaires à trouver rapidement les renseignements dont ils ont besoin en résumant et en organisant de grands volumes de documents.

Il y a sans doute beaucoup d'autres exemples, mais il ne faut pas oublier que les outils d'IA générative ne sont que des outils. Ainsi, ils doivent être évalués en fonction de leur capacité à contribuer à l'amélioration de l'efficacité et de la productivité des fonctionnaires, et non en fonction de leur capacité à se substituer à un effectif très performant.

Je dois aussi mentionner qu'en mai dernier la présidente du Conseil du trésor a lancé des tables rondes sur la première stratégie canadienne en matière d'IA pour la fonction publique fédérale. Cette stratégie permettra d'harmoniser les efforts responsables déployés dans ce domaine à l'échelle du gouvernement, notamment l'utilisation que nous en faisons pour fournir des services, mener des recherches scientifiques, renforcer la cybersécurité et réaliser des gains d'efficience dans nos activités. Cela nous aidera, non seulement à améliorer la façon dont nous servons les Canadiens et les Canadiennes mais aussi la façon dont nous formons et perfectionnons notre effectif afin qu'il soit prêt à s'adapter à l'évolution du milieu de travail. Ces consultations ont déjà eu lieu auprès de personnes représentant le milieu universitaire, les agents négociateurs, la société civile, la fonction publique, les communautés autochtones et l'industrie et celles auprès du public ont commencé le mois dernier. Si vous n'avez pas encore participé aux consultations de la fonction publique, vous pouvez toujours participer aux consultations publiques qui sont en cours. Jusqu'à présent les commentaires que nous avons reçus renforcent le fait que notre stratégie doit être axée sur l'humain, la collaboration et la confiance. La confiance, la confiance et la transparence, un point qui a été soulevé à maintes reprises hier.

La confiance est essentielle. Cela signifie qu'il faut respecter des pratiques inclusives et équitables qui répondent aux besoins des diverses communautés, assurer la transparence, la responsabilité, la confidentialité et la sécurité de nos initiatives en matières d'IA et réduire au minimum leur incidence sur l'environnement. Essentiellement, nous voulons que le Canada, comme l'ont fait d'autres pays, publie une stratégie pour l'IA dans la fonction publique au printemps 2025. Il s'agit d'une étape importante vers l'adoption d'une approche cohérente et uniforme de l'IA au sein du gouvernement fédéral.

En ce qui concerne votre travail quotidien, l'appel à l'action et le guide sur l'utilisation de l'IA générative sont clairs. Les institutions fédérales devraient explorer les outils d'IA pour soutenir et améliorer leurs activités. Et permettez-moi de briser un mythe persistant selon lequel les fonctionnaires ne sont pas autorisés à utiliser l'IA générative au sein du gouvernement.

Ce n'est pas vrai. Nous pouvons l'utiliser, mais uniquement de manière responsable et éthique. Nous sommes également conscients que ces outils auront une incidence sur notre façon de travailler, mais nous devrons nous adapter. Le fait est que nous ne pouvons pas rater le bateau ou avoir peur d'utiliser cette technologie. Maintenant que les mesures de sécurité sont en place, vous devrez l'utiliser.

Mais les contrôles ne suffisent pas à gérer l'IA. Vous devrez utiliser non seulement nos valeurs et notre éthique comme lignes de conduite, mais aussi votre propre sens du bien et du mal pour maximiser l'utilisation de ces outils afin d'améliorer notre efficacité. Cette flexibilité s'accompagne d'une responsabilité. Comme je l'ai dit au début, il s'agit de gérer le changement. Et à quoi ça ressemble dans notre travail quotidien?

Pour vous aider à comprendre, mon bureau a préparé un document intitule L'IA générative dans votre travail quotidien, qui est affiché à partir d'aujourd'hui sur le kiosque virtuel du site Web de l'École de la fonction publique du Canada. Si vous ne comprenez pas très bien ce qu'est l'IA générative, sachez qu'elle produit du matériel, comme du texte et des images, en fonction de ce que vous lui demandez de faire. ChatGPT, Copilot et Gemini sont des exemples d'outils de ce genre. Tous ces outils sont là pour vous aider mais tout se résume à une question : devriez-vous utiliser l'IA générative pour votre projet ? Chaque situation est différente. Alors assurez-vous de réfléchir à ces principes directeurs et à vos valeurs morales avant d'utiliser l'IA.

Le document que nous avons publié aujourd'hui vous aidera à utiliser l'IA de manière responsable et conformément au Code de valeurs et éthique du secteur public. Par exemple, il vous indique l'utilisation que vous pouvez faire de l'IA générative ; cela comprend la rédaction de présentations, de plans de rapport, de notes d'allocution, de compte rendu de réunions et d'autres documents. L'exploration d'idées créatives, la création d'images pour les présentations. Mais il décrit aussi l'utilisation que vous ne pouvez en faire : la production d'information inappropriée, illégale ou non conforme à l'éthique ; la création d'une seule source d'information pour les décisions opérationnelle importante ; la création d'images de personnes ; et la création de documents qui pourrait tromper les gens ou propager la désinformation.

Pour vous aider à apprendre à utiliser les outils d'IA générative de manière responsable, il existe un acronyme pratique que j'ai mentionné plus tôt. Cet acronyme est PRETES, et il identifie six principes ainsi que les choses à faire et à ne pas faire associées à chacun d'entre eux.

Ainsi, dans l'acronyme PRETES, P signifie pertinente, qui signifie que l'IA générative n'est pas adaptée à toutes les utilisations. Le R est pour responsable. En d'autres termes, assumez la responsabilité de ce que vous préparez à l'aide de l'IA. E comme équitable. De sorte que vous devez vérifier que les résultats générés par l'IA sont représentatifs et inclusifs et qu'ils ne contiennent pas de stéréotypes nuisibles. T comme transparente. Ainsi, vous indiquez sur le produit final que vous utilisez l'IA générative, et vous avisez votre gestionnaire lorsque vous utilisez l'IA pour accomplir vos tâches. E comme éclairée. Par exemple, vous suivez des cours et lisez des articles sur l'utilisation de l'IA générative. Enfin, S signifie sécurisée, qui signifie que vous utilisez des outils publics avec des données non classifiées uniquement et que vous ne saisissez pas de renseignements personnels, sensibles ou protégés. Ces principes d'initiation au monde passionnant de l'IA contiennent bien plus, et je vous recommande de vous familiariser avec eux avant d'utiliser l'IA générative dans votre travail. L'IA est inévitable, et tout le monde aura besoin d'une compréhension de base de cette technologie, y compris quand elle doit être utilisée. Je le répète, l'École de la fonction publique du Canada propose également des cours sur ce sujet, et je suggère vraiment à tout le monde d'y jeter un coup d'œil.

Je vous avais dit que ce serait un peu long, mais j'avais besoin de passer en revue les différentes lignes de conduite que nous avons mises en place. Une discussion d'experts nous attend. Nous aborderons les thèmes les plus pointus de l'IA, et peut-être des exemples précis avec ce panel. Je me suis abstenu de parler du coût de ces outils, de la nécessité de mettre en place des stratégies de données rigoureuses avant de pouvoir les adopter, ou encore de la manière dont nous nous attaquons à la dette technique au sein du gouvernement fédéral et dont nous la surmontons. Nous devrons investir dans la puissance de calcul, dans les compétences numériques, et les questions abondent quant à l'incidence sur l'environnement ou, comme nous l'avons entendu plus tôt, sur la productivité. Tous des sujets qui pourraient être abordés dans le cadre du panel à venir.

Mais avant de leur céder la place, je vais vous laisser sur cette pensée. En tant que fonctionnaires, notre engagement collectif en faveur d'une IA éthique et responsable doit être inébranlable. Nous devons plaider pour une IA qui élimine les obstacles à l'inclusion sur le lieu de travail et respecte les droits de la personne et les valeurs démocratiques, ce qui se reflète dans nos stratégies et politiques en matière d'IA. Il nous incombe également, en tant que fonctionnaires, de gérer ce changement et de respecter notre contrat moral avec les Canadiens et Canadiennes.

Pour ce faire, nous devons établir très tôt des liens avec les cadres politiques et les lignes directrices qui garantissent que l'IA est développée et utilisée dans le respect des droits de la personne et de nos valeurs. Consultez des experts, tant au sein de votre organisation qu'à l'extérieur, pour étudier et comprendre les aspects éthiques d'une utilisation particulière de l'IA. Vous pouvez également vous adresser à mon bureau au sein du Secrétariat du Conseil du Trésor pour obtenir de l'aide, des conseils ou une collaboration sur des questions liées à l'IA. Et n'oubliez pas de consulter les dernières informations sur Canada.ca.

L'IA est là. L'IA est en train de changer notre façon de travailler. Nous devons donc nous familiariser avec elle, l'utiliser de manière responsable et contribuer à guider la révolution de l'IA. Merci beaucoup. Merci.

[00:26:25 Nathalie Laviades Jodouin apparaît en plein écran]

Nathalie Laviades Jodouin : Merci beaucoup, Monsieur Rochon, de nous avoir éclairés sur les raisons pour lesquelles l'IA devrait être un sujet de discussion central, et sur la manière dont elle rencontre les valeurs et l'éthique. Je vous remercie également d'avoir mis l'accent sur l'École, mais aussi sur de nombreuses autres ressources que vous trouverez en visitant notre kiosque virtuel, dont nous allons sûrement parler. Mais vous le connaissez déjà, alors n'hésitez pas à y jeter un coup d'œil. Poursuivons donc la conversation en écoutant d'autres fonctionnaires, au sein du gouvernement fédéral, mais aussi dans d'autres administrations, partager leurs expériences et leurs bonnes pratiques en matière d'IA. La discussion d'experts, à laquelle vous êtes maintenant habitués, sera suivie d'une séance de questions-réponses, à la fois dans la salle et avec nos participants virtuels. Je vais donc inviter nos panélistes à se joindre à nous.

[00:27:22 La caméra montre les panélistes au moment où; ils montent sur scène.]

Nathalie Laviades Jodouin : Tout d'abord, je souhaite la bienvenue à Mark Schaan, secrétaire adjoint du cabinet pour l'intelligence artificielle au Bureau du Conseil privé, qui animera également la discussion d'aujourd'hui. Bienvenue, Mark. Ima Okonny, sous-ministre adjointe et dirigeante principale des données à Emploi et Développement social Canada, se joindra également à nous.

[00:27:50 Nathalie Laviades Jodouin apparaît brièvement en plein écran, puis nous voyons les panélistes qui participent de façon virtuelle en plein écran]

Nathalie Laviades Jodouin : Nous avons également quelques participants qui se joignent à nous virtuellement. Tout d'abord, Natasha Clarke, sous-ministre au ministère de la Cybersécurité et des Solutions numériques du gouvernement de la Nouvelle-Écosse. Bienvenue, Natasha. Et Anna Jahn, directrice principale des politiques publiques et de l'inclusion à Mila, l'Institut québécois d'intelligence artificielle. Bienvenue, Anna.

[00:28:13 Nathalie Laviades Jodouin apparaît en plein écran]

Nathalie Laviades Jodouin : Donc, un rappel à tous, wooclap.com, VEOCT pour soumettre vos questions. Sur ce, je vous laisse la parole, Mark. Merci.

[00:28:18 Écran divisé : Mark Schaan et Ima Okonny sont assis sur scène; Natasha Clarke et Anna Jahn apparaissent dans les panels de discussion vidéo]

Mark Schaan : Merci Natasha et merci à tous pour votre présence aujourd'hui. C'est vraiment un plaisir d'avoir une occasion de parler avec un groupe tellement excellent, c'est vraiment un groupe formidable. J'espère que notre panel aujourd'hui a une approche qui atteint le résultat qui <inaudible> à prévoir.

[00:28:42 Mark Schaan apparaît en plein écran. Texte à l'écran : Sous-secrétaire du Cabinet, Intelligence artificelle, Bureau du Conseil privé.]

Mark Schaan : Nous verrons si nous sommes ou non à la hauteur de l'engouement, ce qui est habituel pour ceux et celles d'entre nous qui parlent de l'IA. Nous sommes souvent confrontés à l'engouement, à nous demander si nous serons réellement capables de faire ce que l'IA dit pouvoir faire. Nous sommes le dernier panel aujourd'hui [avant] les commentaires finaux par le greffier. Notre conversation qui était précédée par notre autre panel aujourd'hui. C'était incroyable et beaucoup de sentiments qui sont importants pour notre conversation aujourd'hui. J'ai été très frappé par les conversations de ces deux derniers jours et par la façon dont elles ont mis l'accent sur les questions dont nous allons parler aujourd'hui. Hier, l'un des panélistes a déclaré que la confiance était un résultat, et non une action.

[00:29:30 Mark Schaan et Ima Okonny sont assis sur la scène]

Mark Schaan : Et je crois que lorsque nous pensons à l'intelligence artificielle, nous la considérons souvent comme une chose et non comme un processus. Nous parlerons un peu aujourd'hui, je l'espère, du processus de l'IA qui aboutit à son utilisation responsable et à ses résultats efficaces.

[00:29:40 Mark Schaan apparaît en plein écran.]

Mark Schaan : Ce matin, nous avons également eu des discussions très importantes sur la capacité à repenser nos processus. Je crois que l'un des intervenants a parlé du fait que notre démocratie et nos institutions ne devraient pas être fragiles au point d'être dévolues à une configuration particulière ou à un type de format particulier. Et c'est vrai pour la façon dont nous envisageons l'intelligence artificielle. Elle doit être réellement ouverte à la possibilité de faire les choses d'une manière nouvelle et différente et peut-être d'axer nos efforts sur d'autres espaces où; nous pouvons vraiment apporter une valeur ajoutée. C'est clair que l'intelligence artificielle a une capacité tellement incroyable et un pouvoir qui est vraiment au début maintenant dans l'économie et aussi dans la société. C'est clair que l'intelligence artificielle a une technologie qui touche notre vie d'une manière qui semble peut-être nouvelle dans les anciennes innovations dans le domaine de la technologie.

L'IA nous frappe de plusieurs manières nouvelles et très différentes. D'une part, il s'agit d'une promesse incroyable : la possibilité de ne plus se soucier des tâches répétitives, de libérer certaines de nos capacités pour permettre aux machines d'effectuer une partie du travail qui est à la base de certaines de nos activités.

D'autre part, elle soulève des questions très importantes en matière de valeurs et d'éthique, en particulier pour nous, qui sont des fonctionnaires. Elle soulève des questions sur les raisons pour lesquelles, lorsque vous demandez aux formats d'IA générative un certain nombre de questions comme, à quoi ressemble un leader, ils ne vous montrent jamais rien d'autre qu'un homme blanc. Et ça soulève des questions très importantes comme, qu'elle est sa relation avec le secteur de la création, qui est à l'origine d'une grande partie des données qui alimentent ces modèles? Où; ces données ont-elles été créées? Qui a été rémunéré pour ce travail? D'où; provient-elle, dans le monde? Qu'en est-il des conséquences environnementales et autres de ces processus? En même temps, c'est une occasion extraordinaire pour nous, en tant que fonction publique, de faire un bond en avant et d'utiliser une technologie dont le Canada détient pratiquement la plus grande responsabilité que n'importe quel autre pays dans le monde.

Comment trouver cet équilibre? J'ai beaucoup de chance aujourd'hui d'être entourée d'une équipe incroyable qui va nous aider à répondre à certaines de ces questions. Je leur demanderai de se pencher sur la question suivante : que voyez-vous comme possibilité et comme considérations pour la mise en œuvre responsable de l'IA dans un contexte de fonction publique, et comment? Je commencerai par vous, Ima.

[00:32:26 Ima Okonny apparaît en plein écran. Texte à l'écran : Ima Okonny, sous-ministre adjointe et dirigeante principale des données, Emploi et Développement social Canada.]

Ima Okonny : Merci beaucoup, Mark. Et aussi, merci à notre dirigeant principal de l'information. J'ai trouvé votre cadre excellent et qu'il brossait vraiment le tableau de l'écosystème en termes de soutien à la mise en œuvre de ce projet. Merci également au BCP de l'École de la fonction publique du Canada de nous avoir permis d'entamer cette conversation extrêmement importante sur le croisement des données de l'intelligence artificielle, des valeurs et de l'éthique.

Pour répondre à votre question, Mark, ça fait maintenant 25 ans que je travaille dans le secteur public et je sais que le greffier, dans les panels précédents, a demandé aux participants de réfléchir à leurs débuts dans cet emploi. Lorsque j'ai commencé en 2000, j'avais déjà effectué quelques contrats, mais ce qui m'a frappé, c'est l'attention que les gens portaient aux autres. Les fonctionnaires voulaient vraiment contribuer au bien-être des Canadiens et Canadiennes. L'accent a été mis sur la nécessité de veiller à ce que les fonctionnaires aient les outils pour pouvoir répondre aux besoins des Canadiens et Canadiennes. C'est ce que j'ai constaté au cours des 25 dernières années dans le secteur public, même dans mes fonctions actuelles à Emploi et Développement social Canada. Quand je pense à l'exploitation de technologies telles que l'IA – aujourd'hui nous parlons de l'IA, demain ce pourrait être autre chose – je pense que le pouvoir que nous avons, et la possibilité, c'est vraiment de faire appel à tous les talents que nous avons à travers le système, d'exploiter cette technologie pour le bien afin d'être en mesure d'offrir des services à la population canadienne.

Nous avons plus tôt des défis liés à la confiance, des défis provenant du fait que les gens s'inquiètent des risques liés à l'utilisation de l'IA. Et je pense que nous pouvons, en tant que fonctionnaires, renverser la situation et axer nos efforts sur ce qui nous différencie, par exemple, du secteur privé, et encourager l'innovation en conséquence.

Par exemple, à Emploi et Développement social Canada, l'une des choses que nous avons faites au plus fort de la pandémie a été de voir comment nous pouvions tirer parti des données et de l'IA pour vraiment répondre aux commentaires dont le DPI a parlé plus tôt, parce que nos agents étaient submergés par tous les formulaires qui arrivaient. Nous avons reçu tellement de formulaires parce que les gens perdaient leur emploi. L'une des questions auxquelles nous avons réfléchi est la suivante : comment pouvons-nous soutenir les Canadiens et Canadiennes dans cette période difficile? Et pour le faire, nous avons tiré parti de l'IA.

Nous l'avons exploité légalement. Nous avons travaillé avec le SCT pour nous assurer que tous les protocoles étaient en place. Nous avons également veillé à ce que les considérations relatives à la protection des renseignements personnels et à la sécurité soient prises en compte, et nous avons prouvé qu'il était possible de le faire. De nombreuses personnes ont dit qu'il était impossible de le faire avec le système actuel et tous les problèmes de données rencontrés, mais nous l'avons fait, et nous avons tenu nos promesses.

Je crois que la question qui se pose à nous, Mark, pour l'avenir, est la suivante : comment pouvons-nous transposer certains de ces éléments à l'ensemble du secteur public? Parce que nous avons prouvé que nous pouvions le faire d'une manière qui respecte les protocoles. Nous sommes très transparents sur ce que nous avons fait. Actuellement, si vous vous rendez sur le portail du gouvernement ouvert, vous trouverez de la documentation sur ce que nous avons fait. Nous avons été très ouverts sur certaines de ces pratiques au sein de l'organisation. Et ce travail a également permis aux gens de mieux comprendre certaines de ces considérations clés en matière de données, les considérations fondamentales autour de l'intégration des données, puis les considérations responsables autour de l'IA pour s'assurer que, lorsque nous examinons cette solution, qui fonctionne encore aujourd'hui, nous examinons également des choses comme la dérive des données, parce que les données changent. La population du Canada est en constante évolution.

Nous devons faire preuve d'une grande intention, d'une grande détermination quant à la manière de tirer parti de l'innovation et de la stimuler, tout en restant fidèles à nos valeurs fondamentales et à l'éthique. Je vais m'arrêter là pour l'instant.

[00:36:26 Mark Schaan et Ima Okonny sont assis sur la scène]

Mark Schaan : Merci beaucoup, Ima. Natasha, depuis votre poste en Nouvelle-Écosse, que pensez-vous de certaines de ces possibilités et considérations pour une mise en œuvre responsable dans un contexte de fonction publique?

[00:36:40 Natasha Clarke apparaît en plein écran. Texte à l'écran : Natasha Clarke, sous-ministre, Ministère de la Cybersécurité et des Solutions numériques, gouvernement de la Nouvelle-Écosse.]

Natasha Clarke : Mark, j'adore votre sourire, parce que Mark et moi avons déjà eu quelques conversations sur l'IA et je suis certaine qu'il se demande, mais qu'est-ce que Natasha va partager avec l'auditoire? Il y a deux ou trois choses dont j'aimerais parler et que j'aimerais partager en termes de perspective. Ici, en Nouvelle-Écosse, je dirais que nous avons parcouru environ un mètre sur un voyage d'un million de kilomètres, en termes d'IA.

Mais je veux mentionner que nous avons fait ce voyage pour apprendre comment transformer un système d'entités du secteur public qui est un gouvernement analogique depuis le 18e siècle en un système qui peut fonctionner et penser différemment. Et je dirais que nous sommes toujours dans ce voyage. Je crois qu'il est important de souligner que l'IA est un autre type de technologie. Il s'agit d'un type de technologie très différent, ce qui signifie que ce sur quoi nous aurions dû axer nos efforts à l'époque de l'Internet, et sur lequel nous ne l'avons pas fait suffisamment, aura des conséquences importantes si nous ne commençons pas à porter notre attention sur des choses telles que les connaissances numériques dans la fonction publique, la gestion des données, et certaines infrastructures de base et éléments fondamentaux que nous devons nous assurer de mettre en place.

Cela dit, je pense que nous avons d'énormes possibilités à exploiter. Nous savons tous que nous essayons de résoudre des problèmes difficiles, et je pense que les technologies peuvent certainement nous aider à y parvenir. Mais avant tout, nous devons nous assurer d'avoir un coup de foudre pour le problème que nous tentons de résoudre. Quels sont les besoins de l'utilisateur? Nous devons nous assurer que nous ne nous contentons pas de prononcer ces mots, mais que nous nous plaçons dans le contexte des personnes que nous servons ou, encore une fois, du problème que nous essayons d'aborder, afin de nous assurer que nos hypothèses sont réellement valables.

C'est le premier point de départ selon moi, car je pense que ces technologies vont être incroyablement puissantes pour nous, les fonctionnaires. Mais si nous sautons trop vite, et Dominic l'a parfaitement énoncé, la poussière d'étoiles qu'est l'IA. On m'appelle souvent pour me dire, Natasha, nous avons besoin de l'IA, mais ce à quoi nous voulons amener les gens à réfléchir, c'est, quel est le problème? De quoi a besoin cet utilisateur? Et nous devons aussi nous assurer de réfléchir aux conséquences. Ce type de technologie est différent du traitement de texte traditionnel ou des technologies de traitement traditionnelles que nous avons utilisées par le passé dans le secteur public. Si j'étais un responsable politique, je devrais maintenant améliorer mes connaissances et comprendre les implications, non seulement les avantages, mais aussi les conséquences involontaires potentielles de cette technologie. Ce que je trouve vraiment formidable, et bien sûr Dominic a parlé du Secrétariat du Conseil du Trésor, des lignes directrices et des principes qui ont été mis en place. Nous avons fait des choses semblables ici aussi, pour commencer à aider les fonctionnaires à se familiariser avec l'IA.

Et j'aimerais aussi dire qu'il ne faut pas avoir peur. Personne n'a encore réellement tout compris. Microsoft, il y a environ un an, essayait encore de comprendre comment en tirer parti. Je sais que même pour moi, en tant que personne qui travaille dans cet espace, il y a des moments où; j'ai l'impression d'être loin derrière. Ne vous laissez pas dépasser par tout ça. Commencez simplement à utiliser l'IA dans le contexte des lignes directrices qui ont été partagées. Lorsque nous aborderons les questions plus tard, je partagerai probablement certains des enseignements récents que nous avons tirés, et je m'en tiendrai donc à ces quelques réflexions préliminaires pour le moment.

[00:40:33 Mark Schaan apparaît en plein écran.]

Mark Schaan : Merci beaucoup, Natasha. Et c'est toujours un plaisir de participer à des panels avec vous, alors j'attends avec impatience vos prochaines interventions.

Anna, en tant que personne qui aide à guider les praticiens des politiques publiques dans le monde entier sur certaines de ces questions, quelles sont, selon vous, les possibilités et les considérations pour une mise en œuvre responsable de l'IA dans un contexte de fonction publique?

[00:40:58 Anna Jahn apparaît en plein écran. Texte à l'écran : Anna Jahn, Directrice principale, Politiques publiques et inclusion à Mila.]

Anna Jahn : Oui. Merci, Mark. Et je vais faire de mon mieux pour être aussi drôle que Natasha en tant que panéliste, mon Dieu.

Je me joins à vous dans le cadre d'un service non public. Je vous rejoins depuis un institut de recherche sur l'IA. Chez Mila, nous sommes vraiment, d'une certaine manière, dans une position privilégiée au cœur de l'écosystème canadien de l'IA, c'est-à-dire que nous travaillons non seulement avec l'excellence, Mila compte actuellement 1 300 chercheurs, mais nous travaillons également avec l'industrie, les gouvernements et les organisations internationales pour les soutenir en partie et les aider à réfléchir à l'adoption de la technologie de l'IA. Mon équipe, en particulier, s'efforce de combler encore davantage le fossé entre la communauté des chercheurs et les décideurs politiques. Mais en général, nous essayons vraiment de soutenir, d'une certaine manière, tout le monde dans ce parcours. Nous pouvons donc voir un peu et comparer un peu ce que nous voyons ici.

Je dirais que, du côté des possibilités, et je pense que beaucoup de choses ont déjà été dites par mes deux brillants panélistes. Mais ce que nous voyons, ou peut-être que je vois personnellement comme la plus grande possibilité d'une certaine manière, c'est que les gouvernements ont la possibilité de répondre aux besoins de la société avec la technologie de l'IA. Une grande partie de l'IA que nous voyons apparaître et être déployée répond aux besoins du propriétaire de la plateforme, aux besoins du producteur et aux besoins de l'utilisateur. Et je ne veux absolument pas minimiser les besoins des utilisateurs. La réflexion sur la conception centrée sur l'humain et sur l'expérience de l'utilisateur est selon moi très importante. Mais les besoins sociétaux sont souvent un peu oubliés. Et au final, les gouvernements ont l'occasion d'explorer la manière dont nous pouvons réellement répondre à certains de ces besoins et défis majeurs auxquels nous sommes confrontés, que ce soit dans le domaine du changement climatique, de la santé, etc. Et démontrer de manière générale comment l'IA peut réellement faire la différence et mieux répondre, bien sûr, aux attentes des citoyens par rapport à ce que les gouvernements peuvent faire. Voilà donc le petit, ou plutôt le très, très grand défi à relever et l'occasion à saisir. Et bien sûr, il y a beaucoup d'éléments qui ont déjà été mentionnés concernant l'amélioration de la prestation de services aux citoyens qui conduit à la confiance comme résultat.

Pour ce qui est des considérations, j'en citerai quatre, que j'estime voir dans l'ensemble de l'écosystème et dans tous les gouvernements. Tout d'abord, je tiens à souligner une nouvelle fois l'importance de l'éducation et de la formation. Si vous avez un effectif qui ne sait pas ce qu'est l'IA, il est très, très difficile de réfléchir, de s'intéresser à un problème et de trouver des solutions. Et je ne suggère pas que tout le monde obtienne un doctorat en apprentissage automatique. Je crois vraiment, sincèrement, que chaque fonctionnaire peut avoir une bonne compréhension de ce qu'est la technologie de l'IA en l'espace d'une journée. Cet apprentissage peut être offert de toutes sortes de manières différentes. Il n'est pas nécessaire de suivre le cours du MIT en personne, mais nous devons tous trouver un moyen pour que, dans toutes les organisations, les gens sachent ce qu'est réellement l'IA. Ce n'est qu'à ce moment-là que nous pourrons vraiment passer à la définition des problèmes.

Et je suis tout à fait d'accord avec Natasha pour dire qu'il faut commencer par un problème, et qu'il faut avoir un coup de foudre pour ce problème et ne pas commencer par se dire, oh, cet outil peut faire des trucs sympas alors je vais le mettre quelque part dans mon système. Vous devez travailler autour du problème. Le problème doit venir en premier, mais nous ne pourrons établir les solutions que si nous avons une compréhension fondamentale de ce que l'IA peut faire et de la manière dont elle répond à ce type de problèmes. Encore une fois, ce n'est pas forcément compliqué, mais l'IA est efficace dans certains domaines et si nous comprenons ça et la manière dont elle est construite, nous pourrons être beaucoup plus efficaces dans la recherche de solutions.

Troisièmement, nous devons commencer à considérer l'IA davantage comme un processus de gestion du changement que comme la simple adoption d'un outil ou d'une technologie. Les défis que nous rencontrons avec l'adoption d'une technologie assez perturbatrice et d'une technologie qui remet vraiment en question, à bien des égards, tout ce que le secteur public représente en partie, ou en fait pratiquement tout ce qu'une démocratie représente. Il s'agit d'un processus lent, d'une recherche de consensus et de toutes sortes d'autres choses. Il faut donc l'envisager davantage comme un processus de gestion du changement et être très attentif à la manière dont nous l'introduisons, à la manière dont nous nous assurons, par exemple, que notre propre personnel comprend vraiment ce qui est automatisé, et qu'ils ne perdent pas leur emploi, et ainsi de suite. La communication joue un rôle très important. Et plus nous adopterons un état d'esprit axé sur la gestion du changement, mieux ce sera.

Et le dernier point, le fait de considérer et de penser et de parler davantage de l'IA en termes d'augmentation plutôt que d'automatisation, parce qu'au final, il s'agit d'une technologie qui peut augmenter certaines tâches, certains processus. Et je crois que le terme d'automatisation peut parfois être un peu trompeur. Il suscite également des craintes qui sont peut-être – oui, je pense qu'avec le mot « augmentation » elle pourrait être mieux gérée. C'est pourquoi il est important de penser à l'augmentation avec, bien sûr, toujours un humain dans l'équation parce que si nous parlons tout d'un coup uniquement d'automatisation,

[00:47:06 Écran divisé : Mark Schaan sur scène; Natasha Clarke et Anna Jahn dans les panels de discussion vidéo]

Anna Jahn : je pense qu'il existe en effet des questions fondamentales sur la manière dont ces décisions sont prises, sur la manière dont le système sait comment servir, par exemple, cette personne, et sur tout ce que nous avons mentionné précédemment à propos des préjugés et des données, etc. Je m'en tiendrai donc là.

Mark Schaan : Tellement intéressant et merci pour la perspective. C'est tellement important de se concentrer sur les problèmes et aussi de prendre une approche qui reconnaît que l'intelligence artificielle est une technologie générale. Ce n'est pas seulement une solution, une utilité ; c'est vraiment un processus.

[00:47:16 Mark Schaan apparaît en plein écran.]

Mark Schaan : Anna, vous m'avez déjà entendu le dire, mais je pense aussi que nous devons considérer l'IA comme un jeu à long terme. Nous ne sommes pas parvenus aux solutions dont nous disposons en matière d'IA sans un soutien rapide et continu, pendant 50 ans, à la science fondamentale qui nous a permis d'accéder à ces technologies. Ne pensons donc pas qu'il faille tout résoudre en un jour ou passer de zéro à cent en un jour.

[00:48:12 Écran divisé : Mark Schaan sur scène; Natasha Clarke et Anna Jahn dans les panels de discussion vidéo]

Mark Schaan : Natasha, j'aimerais que vous nous parliez, encore une fois de votre emplacement en Nouvelle-Écosse, de ce que vous envisagez en termes de premiers cas d'utilisation. Et certains des éléments fondamentaux qui doivent être mis en place lorsque vous réfléchissez aux premiers cas d'utilisation, comme les données, l'infrastructure technologique appropriée, les compétences et les capacités, et peut-être les possibilités de mobilisation entre les provinces, les territoires et le gouvernement fédéral, alors que nous explorons ensemble l'utilisation responsable de l'IA.

[00:48:40 Natasha Clarke apparaît en plein écran.]

Natasha Clarke : Merci. Deux ou trois choses. Et j'irai peut-être un peu dans tous les sens. En ce qui concerne les cas d'utilisation, comme je l'ai dit au début, nous commençons tout juste à nous y intéresser de quelques manières. Il est certain que notre système de santé a adopté l'IA depuis un certain temps en ce qui concerne les radiographies, les résultats de laboratoire, certains de ces exemples, j'ai envie de dire, plus faciles à mettre en œuvre. En ce qui concerne la fonction publique, nous avons mis en place le copilote et je peux constater comment les fonctionnaires l'utilisent et l'expérimentent, ce qui est très bien. Nous avons également appris récemment que nous allions publier des directives sur l'assistance aux réunions par l'IA, parce que nous avons effectivement eu la participation d'assistants par l'IA à des réunions. Certains fonctionnaires n'étaient peut-être pas conscients de la situation ni des conséquences, en particulier lorsqu'il s'agit d'organiser des réunions confidentielles ou à huis clos avec les parties prenantes. Je crois qu'il s'agit là d'une information à partager, et  nous serions heureux de partager ces directives lorsqu'elles seront publiées ici en Nouvelle-Écosse. Mais revenons à certains des commentaires qu'Anna a faits dans son introduction et revenons à l'élément fondamental de l'infrastructure et à la collaboration.

[00:50:04 Écran divisé : Mark Schaan et Ima Okonny sur scène; Natasha Clarke et Anna Jahn dans les panels de discussion vidéo]

Natasha Clarke : Selon moi, nous avons un problème de productivité au Canada. Je vois vraiment la fonction publique tenter de –

[00:50:14 Natasha Clarke apparaît en plein écran.]

Natasha Clarke : J'aimerais que nous revenions à nos racines en termes de création du bien public et de la valeur publique. Quand je pense aux innovations qui ont été réalisées au cours de l'histoire, qu'il s'agisse du GPS, de l'Internet, etc., nous ne devrions pas non plus nous tenir loin de ces types d'innovations sur lesquelles nous pouvons collectivement travailler pour construire un avenir très différent pour mon fils, par exemple, qui fêtera ses 16 ans la semaine prochaine.

Quand je pense à l'infrastructure publique numérique, à la manière dont nous pourrions exploiter les données dont nous avons l'intendance d'une manière très respectueuse de la vie privée et du consentement, comment mettons-nous en place une infrastructure technologique appropriée comme les échanges de données? Comment moderniser la façon dont nous délivrons les documents d'identités aujourd'hui, je veux dire, nous avons des permis de conduire sur papier, nous devons passer à la confiance numérique et aux documents d'identité numériques. Il y a d'autres éléments de ce type d'infrastructure publique numérique sur lesquels nous pouvons travailler collectivement pour relever certains des défis sociétaux plus importants dont parlait Anna.

ET je suis très enthousiaste. Depuis un an et demi, voire deux ans, une table de ministres et de sous-ministres fédéraux, provinciaux et territoriaux s'est penchée sur la cybersécurité et la confiance numérique. L'IA est un sujet abordé à cette table, et la productivité a récemment fait partie de cette conversation. Ainsi que la manière dont nous pouvons collaborer et partager. Mais j'aimerais nous mettre au défi d'aller au-delà de mes principes directeurs, que je vais partager avec vous, puis nous mangerons un muffin et nous serons heureux de creuser réellement la question de savoir comment nous pourrions collaborer à cette infrastructure publique numérique afin de mettre en place ces éléments fondamentaux. Ça ne signifie pas que le gouvernement doive résoudre tous les problèmes, mais nous pouvons mettre la table pour créer des activités habilitantes, que ce soit avec la recherche et les universités, le secteur privé, etc.

Et nous avons assurément vu d'autres pays être en mesure de devancer le Canada dans ces domaines. Et ce qui me préoccupe, c'est qu'ils vont manger notre lunch. Mais je crois en ce que nous pouvons faire. Et je sais que le simple fait d'être invitée à participer à un panel comme celui-ci aujourd'hui ouvre ces conversations, parce que je suis vraiment enthousiaste à l'idée de savoir comment nous pourrions travailler ensemble pour nous attaquer à certaines des choses que, comme je l'ai dit, Anna a évoquées dans son discours d'ouverture.

[00:52:52 Mark Schaan apparaît en plein écran.]

Mark Schaan : Merci, Natasha. Je suis aussi un optimiste, notamment concernant les possibilités pour la coordination et la coopération entre les provinces et les territoires. C'est les mêmes questions d'éthique et de valeurs ; c'est vraiment les mêmes questions d'infrastructure et de capacité ; et aussi, comme Anna a dit, c'est vraiment un processus de gestion de changement. Et réellement, parce que nous traversons ce changement ensemble, nous serons tellement plus forts ensemble si nous parvenons à comprendre comment nous pouvons le faire en tirant parti de nos capacités respectives.

Ima, nous avons parlé, et vous avez commenté sur la possibilité d'augmenter et d'améliorer les services aux citoyens avec l'utilisation de l'intelligence artificielle. Peut-être pourriez-vous nous en dire un peu plus sur les possibilités et les considérations relatives aux services destinés aux citoyens et sur la manière dont vous vous en inspirez à EDSC pour réfléchir à ces possibilités très importantes et très significatives.

[00:54:10 Ima Okonny apparaît en plein écran.]

Ima Okonny : Merci, Mark. Je voudrais juste dire qu'avant de participer au panel, j'ai consulté le site Web de StatCan. J'ai regardé l'horloge démographique. Vous savez, l'horloge démographique qu'ils ont. Si vous ne le saviez pas, si vous ne l'avez pas vu, elle est fascinante à regarder. La population de ce pays est estimée à plus de 40 millions d'habitants. J'ai également consulté le site Web de StatCan. Nous avons beaucoup de chance. Nous disposons d'une agence statistique très solide dans ce pays. J'ai examiné la population autochtone. J'ai également étudié une population de francophones. J'ai examiné la population des Canadiens racialisés. J'ai également parcouru certaines des études que nous avons réalisées sur les personnes mal desservies, celles que nous n'atteignons même pas. J'ai examiné certaines des considérations et certains des défis auxquels nous avons été confrontés pendant la pandémie et qui ont été les plus touchés par cette pandémie. Je dirais que nous avons fait suffisamment de recherches pour savoir où; se situent certains des défis du système, pour répondre au point d'Anna sur le bien collectif. Nous avons déjà effectué de nombreuses recherches. Et chaque fois que nous parlons de notre stratégie en matière de données, certaines des réponses que nous recevons sont les suivantes : vous collectez tellement de données sur nous, que faites-vous de toutes ces données?

Quand je pense aux services destinés aux citoyens et à l'amélioration de la prestation de services aux Canadiens et Canadiennes, je pense à l'occasion qui s'offre à nous, compte tenu de tout ce que nous avons actuellement en place. Nous disposons d'une fonction publique très talentueuse qui comprend certains de ces problèmes. Je l'ai vu pendant la pandémie. J'ai vu des gens qui travaillaient à 3 heures du matin, qui livraient, qui construisaient des systèmes, qui assemblaient des choses, qui allaient en première ligne pour livrer les Canadiens et Canadiennes. Je pense que la question qui se pose à nous maintenant est la suivante : compte tenu de tout ce que nous savons, nous connaissons déjà le système, les défis, les problèmes, les personnes qui n'ont pas été servies correctement, comment pouvons-nous renverser la situation pour cibler et atteindre les personnes que nous n'atteignons pas? Pour y arriver, nous devons travailler en étroite collaboration pour comprendre les segments de la population.

Nous avons travaillé en étroite collaboration avec Statistique Canada. Nous collaborons beaucoup avec Statistique Canada pour comprendre les différents segments de la population, le fossé entre les zones urbaines et rurales, le vieillissement de la population et l'augmentation du nombre de personnes handicapées. Vous savez, il y a plus de personnes handicapées aujourd'hui qu'auparavant, alors lorsque nous réfléchissons à la prestation de services et aux services destinés aux citoyens, comment pensons-nous à l'accessibilité? Comment réfléchissons-nous et nous assurons-nous que lorsque nous tirons parti de l'intelligence artificielle, nous utilisons des données de formation appropriées, car il a été prouvé que les textes en français et les textes en anglais ne sont pas traités de la même manière. Alors, comment s'assurer que toutes ces considérations sont prises en compte? Comment nous assurer que certaines des données que nous exploitons reflètent correctement la diversité des populations autochtones et les défis que nous avons constatés? Nous les connaissons déjà parce que nous avons déjà fait des recherches sur tout ça.

Nous sommes maintenant dans l'espace, Mark, dans l'espace où; nous devons avancer, et nous devons avancer en disant, oui, il y a des cas d'intelligence artificielle à haut risque, nous le savons. Nous savons qu'il y a un risque de laisser des gens de côté si nous ne faisons pas les choses délibérément et intentionnellement. Le SCT a mis au point un grand nombre d'outils. Nous avons travaillé avec certaines de nos institutions, comme Mila. Nous avons travaillé en étroite collaboration avec Mila. Nous avons mis en place certains cadres de gouvernance. La question qui se pose à nous, en tant que secteur public, est de savoir comment nous pouvons tirer parti des éléments dont nous disposons actuellement pour améliorer nos prestations. Et, comme je l'ai dit dans mon introduction, nous avons ces possibilités. Nous avons des cas classiques. Par exemple, j'ai parlé de la manière dont nous tirons parti du registre des commentaires sur l'emploi. Et mon ministère a fait un travail qui, à mon avis, est l'un des cas les plus remarquables d'utilisation de l'IA pour le bien public, tout comme ce dont Anna a parlé.

Je vais vous donner un exemple. Un changement de politique a eu des répercussions sur certaines des personnes les plus vulnérables de notre société. Des examens approfondis et des notes de cas étaient nécessaires et les agents étaient submergés par le nombre de dossiers qui leur parvenaient. Nous avons donc utilisé le traitement du langage naturel et l'apprentissage automatique pour déterminer si nous pouvions exploiter ces notes afin de trier les cas. Il s'agit donc de maintenir le contrôle humain, comme l'a dit Anna, mais aussi de trier ces cas afin d'accélérer l'obtention par les populations les plus à risque des prestations auxquelles elles ont droit. Comme je l'ai dit, si nous avons pu le faire, c'est parce que nous savions qu'il y avait un problème et que nous avions prévu que si nous n'agissions pas rapidement, les gens se retrouveraient dans des situations vulnérables.

Il y a un risque, mais il existe des cas à faible risque et à fort impact, des cas d'utilisation, qui pourraient être exploités dès aujourd'hui. Et la possibilité pour nous, en tant que fonctionnaires, réside dans le fait que nous connaissons déjà les problèmes parce que nous les avons vus, nous les avons même vus pendant la pandémie. Et selon moi, le défi consiste à déterminer comment choisir les problèmes les plus critiques à résoudre et y axer nos efforts, puis à favoriser l'innovation et les solutions.

[00:59:42 Écran divisé : Mark Schaan; Natasha Clarke et Anna Jahn dans les panels de discussion vidéo.]

Mark Schaan : C'est incroyable. C'est une perspective tellement nouvelle. De temps en temps nous avons des conversations concernant l'IA et toutes les inquiétudes, tous les problèmes, notamment le problème pour les groupes qui sont dans les communautés minoritaires. C'est agréable de réfléchir un peu à la manière dont nous pourrions utiliser le pouvoir de la technologie et le pouvoir des données pour inverser cette tendance.

[01:00:08 Mark Schaan apparaît en plein écran.]

Mark Schaan : Nous savons que la technologie a souvent les effets les plus négatifs et les plus complexes sur les communautés marginalisées. Ce sont souvent elles qui sont le plus personnellement et le plus directement touchées. Comment pourrions-nous renverser la situation et réfléchir à la manière dont l'IA et nos données pourraient servir au mieux les personnes en situations précaires et moins bien servies par nos systèmes.

[01:00:50 Écran divisé : Mark Schaan; Natasha Clarke et Anna Jahn dans les panels de discussion vidéo.]

Mark Schaan : Anna, vous bénéficiez d'une perspective privilégiée dans la mesure où; Mila, en tant que chef de file de l'IA, a la chance de pouvoir se mobiliser auprès de toutes sortes d'acteurs, familiers ou non de l'IA, alors qu'ils se penchent sur le pouvoir de cette technologie et qu'ils y réfléchissent. Et nous savons que le Canada n'est pas une île. Nous sommes très engagés dans ce parcours de l'IA aux côtés de nombreux pays partenaires à travers le monde, et les réflexions que vous avez de ce point de vue particulier sur ce que les autres traitent, les cas d'utilisation, les considérations, et peut-être les leçons apprises auxquelles nous devrions penser, en particulier alors que le monde adhère à cette aventure technologique.

[01:01:24 Anna Jahn apparaît en plein écran.]

Anna Jahn : Bien sûr, je répondrai à cette question dans une seconde. Je voulais juste revenir sur une autre chose qu'Ima vient de dire et j'aimerais y ajouter quelque chose. Je suis tout à fait d'accord avec l'approche qui consiste à réfléchir aux problèmes et aux besoins, à les inverser quelque peu et à répondre à ces besoins, en particulier ceux des populations les plus vulnérables. Je voulais juste dire, avec mon chapeau d'inclusion, que je pense que nous devons le faire avec des personnes qui connaissent la technologie et qui viennent de ces communautés. Nous pouvons continuer à élaborer, les solutions peuvent être élaborées par des personnes qui sont assises quelque part dans un bureau et qui n'ont aucune expérience vécue. Chez Mila, nous essayons de le faire par le biais de plusieurs programmes différents. L'un d'entre eux vise spécifiquement les talents autochtones dans le domaine de l'IA et l'autre tente d'attirer davantage de femmes et de personnes issues de la diversité des genres dans le domaine de l'IA, car si nous examinons notre population étudiante, nous avons de réels problèmes de diversité. Il s'agit d'un élément à ajouter ici, car je pense que nous devons, de part et d'autre, réfléchir à l'inclusion.

Revenons donc à la question internationale. D'une certaine manière, la bonne nouvelle est que personne n'a compris et que tout le monde essaie de comprendre. Chaque pays auquel nous nous adressons, et nous avons le privilège de recevoir, par exemple, de nombreuses délégations internationales qui viennent visiter Mila parce qu'elles sont fascinées par le modèle d'une organisation à but non lucratif qui travaille dans ce domaine. Ainsi, de nombreux gouvernements, de nombreux gouvernements provinciaux, tous les niveaux de gouvernement tentent de trouver une solution, mais aussi, bien sûr, le secteur privé. Le secteur privé n'a pas parfaitement compris comment adopter l'IA. Ils se posent les mêmes questions sur la gestion du changement. Ils se posent les mêmes questions sur la gouvernance de l'IA, etc. D'une certaine manière, il faut bien comprendre que personne n'a trouvé la solution miracle.

Je dirais cependant que les pays qui sont plus avancés dans leur parcours de transformation numérique ont une longueur d'avance. Ainsi, tous les pays qui ont investi plus sérieusement dans les ressources et l'éducation, etc., pour leur gouvernement ou leur secteur public ont une longueur d'avance sur la façon d'envisager l'ajout de l'IA à ce mélange. Et plusieurs défis particuliers se posent. Mais beaucoup d'éléments que nous avons recueillis, que nous avons appris sur la transformation numérique, sont en partie applicables à l'adoption de l'IA. Il n'est donc pas surprenant que Singapour ait des cas d'utilisation très, très intéressants et une approche très intéressante, et je dirais que c'est probablement le gouvernement le plus avancé en termes d'adoption de l'IA. Ils disposent également d'un excellent portail et, en termes de transparence, ils communiquent très bien sur la manière dont l'IA est utilisée et sur les cas concrets d'utilisation de l'IA dans le secteur public et sur la manière dont ils servent les citoyens. Il est toujours difficile de comparer des pommes et des oranges, mais on peut en partie, bien sûr, en tirer des enseignements. Il s'agit là d'exemples de pays qui ont pris la transformation numérique globale très au sérieux.

De nombreux pays tentent de rattraper leur retard, en partie parce qu'ils n'ont pas encore investi dans l'IA. L'Allemagne essaie d'investir massivement dans la transformation numérique et l'IA, parce que c'est un grand pays et qu'il dispose de beaucoup de ressources. C'est ce qu'ils font. Nous constatons toutefois que d'autres pays ont fait un bond en avant. Ainsi, le Nigeria est probablement l'un des pays les plus avancés en matière de politique d'IA, ainsi qu'en termes d'adoption de l'IA dans la prestation de services aux citoyens. Les États-Unis, bien sûr, font de même. Je vous recommande vivement de visiter le site AI.gov.com. Il s'agit en fait du référentiel de l'ensemble des politiques, approches, processus et cadres de gouvernance du gouvernement américain, mais aussi d'une collection permanente de cas d'utilisation. Le fait d'avoir un endroit où; les citoyens peuvent voir, par exemple, ce qui se passe dans le domaine de la santé et des cas d'utilisation de l'IA, est selon moi un moyen intéressant et efficace d'impliquer les citoyens dans ce domaine.

Il ne faut pas oublier que le Canada a un réel avantage. Le Canada dispose d'un écosystème <inaudible> unique. Le Canada a été l'un des premiers pays à élaborer une stratégie pancanadienne en matière d'IA, ce qui a donné lieu à un écosystème très riche, non seulement dans le domaine de la recherche, mais aussi dans l'ensemble de l'écosystème. Nous sommes peut-être à la traîne en ce qui concerne l'adoption et la commercialisation de l'IA, mais nous disposons d'un talent qui fait l'envie de presque tous les pays qui viennent nous rendre visite. J'ajouterais notre organisation au mélange, en termes d'appels de collaboration, lorsque nous pensons à la collaboration, dites-nous comment nous pouvons vous aider dans votre parcours d'adoption de l'IA. Comment en tirer parti – et je salue ici nos instituts frères, l'Institut Vecteur et Amii – il n'y a pas que Mila. Il existe trois instituts de recherche sur l'IA. Il y a plus de 3 500 chercheurs en IA ici, et ils désirent tous soutenir les gouvernements, surtout depuis un an, de plus en plus de professeurs viennent me voir pour me demander comment nous pouvons soutenir non seulement les conversations sur la politique de l'IA, mais aussi l'adoption de l'IA au sein du gouvernement. N'hésitez donc pas à venir nous voir pour savoir comment nous pouvons vous aider.

[01:06:52 Écran divisé : Mark Schaan; Natasha Clarke et Anna Jahn dans les panels de discussion vidéo.]

Mark Schaan : Merci Anna. Je pense que c'est une offre tellement excellente et efficace aussi pour les fonctionnaires qui veulent approcher l'IA dans leur domaine de travail. Vous avez touché un sujet plus près de mon cœur. C'est-à-dire que j'y vois une promesse et un enthousiasme extraordinaires. Je pense qu'une partie de la raison pour laquelle certains de ces professeurs sont très enthousiastes à l'idée de jouer dans cet espace et de travailler avec les services publics, c'est qu'il s'agit de la manière dont l'IA peut répondre à certaines de nos valeurs et possibilités éthiques, c'est-à-dire, je pense que les gens sont motivés par la notion que nous pouvons réellement atteindre l'excellence du service; que nous pouvons réellement apporter un soutien éthique et réfléchi à la démocratie; que le fait d'alimenter le travail du gouvernement est en fait une occasion unique. Et de pouvoir le faire en conjonction avec de nouveaux services et outils, c'est encore plus important.

D'un autre côté, je reconnais également, comme je l'ai fait dans mon introduction, qu'il s'agit d'une zone qui soulève des questions de valeurs et d'éthique. J'ai noté d'emblée des considérations sur les préjugés et la discrimination, des réflexions sur l'appropriation et la rémunération effective du contenu, des réflexions sur les droits d'auteur, puis des considérations sur l'environnement et les coûts, etc. Ce que nous investissons dans l'IA peut se faire au détriment d'autre chose. J'aimerais vous demander à toutes les trois de faire quelques commentaires sur la façon dont l'IA peut être à la fois cohérente et présenter une occasion de vivre les valeurs de la fonction publique, et sur ce à quoi nous devons veiller lorsque nous déployons de nouvelles technologies et lorsque nous prenons part à l'utilisation de l'IA dans les services et dans nos propres efforts quotidiens. Parce que bon nombre de ces mesures ne seront pas mises en œuvre à grande échelle. Il s'agira en fait de petits changements en arrière-plan, ou de la possibilité de rédiger la section « contexte » d'un rapport d'information à partir de renseignements accessibles au public, qui résument la situation bien mieux que je ne suis capable de le faire.

Donc, quelques commentaires sur les possibilités de vivre ces valeurs, et peut-être aussi sur ce à quoi nous devrions vraiment réfléchir. Ima, vous voulez commencer?

[01:09:40 Ima Okonny apparaît en plein écran.]

Ima Okonny : Oui, bien sûr. Je vais commencer. Lorsque je pense aux possibilités, l'une des choses, les projets récents que nous avons réalisés consistaient à tirer parti de l'IA pour rechercher des défis dans le système, c'est-à-dire des problèmes systémiques. Vous remarquerez que je parle beaucoup de l'utilisation de l'IA pour changer les choses. Nous avons tiré parti de l'IA pour examiner l'un des programmes et analyser qui obtenait des subventions et qui n'en obtenait pas. Et en examinant ces tendances, ou en explorant un grand nombre d'informations, on peut en fait tirer parti des résultats de ce travail pour façonner les politiques à venir. Par exemple, si vous regardez notre population actuelle, nous avons des taux d'immigration élevés, la population vieillit, nous pouvons déjà anticiper ce qui va arriver. Les talents sont rares dans la fonction publique. Les gens vont prendre leur retraite. Il y aura plus de demandes d'accessibilité et autres.

Nous pouvons donc exploiter certaines de ces informations et concevoir des politiques qui répondent aux besoins des citoyens. Les gens diront, d'accord, vos données sont faussées. Ce que je peux dire, c'est qu'au sein de la fonction publique, nous disposons d'une grande quantité de données. Je travaille dans le domaine des données depuis plus de 20 ans. Nous disposons de tellement de données que nous n'avons même pas encore touchées. Selon moi, nous avons la possibilité d'examiner ces données, de déterminer les populations qui nous manquent dans ces données et d'exploiter les différentes sources de données administratives. Faire tomber certaines de ces cloisons, car beaucoup de ces données sont stockées de manière cloisonnée. Faites-les tomber. Examinez ce que nous pouvons faire dans la législation pour changer les choses et considérer les clients d'un point de vue global, puis favoriser l'innovation et la fourniture de services. En travaillant de cette manière, vous pouvez atténuer les préjugés. Il existe des moyens d'atténuer les préjugés.

Par exemple, dans mon équipe, nous avons mis en place une équipe chargée de l'éthique des données, dont le travail consiste à analyser, au fur et à mesure que nous proposons des solutions, si nous laissons vraiment de côté un segment de la population. Nous examinons également la précision de ce que nous faisons. On voit souvent des entreprises dire qu'elles ont un taux de précision de 67 %, 70 % ou 90 %, mais qui sont les 10 % qu'elles laissent de côté? Il est important de comprendre qui sont ces 10 %, car si ces 10 % représentent 5 % de la population autochtone, nous n'avons pas fait notre travail en tant que fonctionnaires.

En ce qui concerne les valeurs et l'éthique, le respect des personnes, l'inclusion et la diversité, il est important d'intégrer cet élément dans tout ce que nous faisons. Et lorsque nous reflétons l'excellence, que nous tirions parti de l'IA ou des données, nous apportons cet objectif d'équité, cet objectif d'inclusion, et nous nous assurons que nous ne laissons personne de côté, parce que nous ne pouvons laisser personne de côté.

[01:12:45 Écran divisé : Mark Schaan et Ima Okonny sur scène; Natasha Clarke et Anna Jahn dans les panels de discussion vidéo]

Mark Schaan : Exactement, exactement. Nous arrivons à la période de questions dans juste une minute. Je vais toutefois laisser aux autres panélistes le temps de s'exprimer sur les considérations et les possibilités d'appliquer les valeurs de la fonction publique à l'IA. Natasha?

Natasha Clarke : Merci. Wow. C'est difficile d'y répondre en une minute. Il y a deux ou trois choses, encore une fois, qui reprennent certains éléments qu'Anna a mentionnés tout à l'heure à propos des pays ou des administrations qui ont investi massivement dans la transformation numérique. Je ne saurais trop insister sur ce point. L'IA peut être réellement excitante.

[01:13:26 Natasha Clarke apparaît en plein écran.]

Natasha Clarke : Il y a des éléments fondamentaux qui, je le répète, comme les projets de financement des stocks et les équipes de financement, nous devons investir dans l'amélioration continue, ce genre de choses. Il existe un autre angle sous lequel j'envisagerais cette question du point de vue des valeurs et de l'éthique, qui est peut-être plus externe du point de vue de la politique publique, à savoir la confidentialité des données et l'enregistrement de mes données personnelles à l'avenir. J'ai eu l'occasion de me rendre en Estonie et en Finlande cette année pour m'entretenir avec quelques personnes. La Finlande, par exemple, a mis en place une formation sur les hypertrucages et les fausses nouvelles à l'intention des élèves des écoles primaires, intermédiaires et secondaires. J'ai trouvé ça très intéressant. Mais ce qui m'a également fait réfléchir, alors que nous nous aventurons dans cet espace, ce ne sont pas seulement les avantages en termes de services ou d'efficacité pour le gouvernement, mais aussi les valeurs de bien public et de protection du public que nous devons avoir. Et réfléchir à la confidentialité des données, et à ce que ça signifie aujourd'hui de protéger mon visage et ma voix. Et puis, cette semaine, j'ai lu l'article sur la confidentialité des neurones. Je ne pourrais même pas commencer à le comprendre.

Je pense que nous devons réfléchir à ces objectifs non seulement de l'intérieur, mais aussi de l'extérieur, quand nous pensons au bien public et à l'alignement sur ces valeurs. Car, et c'est ma dernière remarque, nous ne pouvons pas contrôler la complexité. Et c'est le monde dans lequel nous vivons, c'est la complexité. J'ai le sentiment que la façon de naviguer à travers tout ça, c'est de se baser sur des principes et des valeurs. Et cette conversation sur les valeurs et l'éthique, au fur et à mesure que nous poursuivons notre parcours en tant que fonctionnaires, sera encore plus importante pour nous aider à naviguer dans la complexité à laquelle nous allons tous et toutes être confrontés.

[01:15:24 Mark Schaan et Ima Okonny sur scène]

Mark Schaan : Je suis tout à fait d'accord avec vous, Natasha. Merci beaucoup. Anna.

[01:15:29 Anna Jahn apparaît en plein écran.]

Anna Jahn : Très bien, je vais essayer d'être rapide. Je vais poursuivre sur ces deux éléments – basé sur des principes, basé sur des valeurs – ce sont d'excellents points. Je dirais même qu'ils doivent prendre vie. Et je dirais qu'ils peuvent le faire de deux manières. D'une part, ils doivent se refléter dans les structures et les modèles de gouvernance que nous construisons autour des systèmes d'IA dans le secteur public. Et ensuite, ils doivent, d'une certaine manière, prendre vie grâce à des pratiques d'IA réellement responsables.

Qu'est-ce que ça signifie au juste? Ça signifie que tout le monde dans la fonction publique doit réfléchir à ce que ça signifie dans mon contexte, et ce sera différent pour tout le monde. Selon moi, c'est une excellente idée d'avoir des principes généraux et des valeurs que tout le monde partage, mais nous devons ensuite les décomposer, parce que ce que nous entendons tout le temps, en particulier de la part de notre personnel technique dans notre recherche sur l'IA, c'est qu'est-ce que ça signifie réellement, l'équité? Qu'est-ce que ça signifie concrètement, la transparence, au quotidien? Quel est le codage pour ça?

Et il existe des moyens de coder pour ça, c'est ce qui est intéressant. Il existe des solutions techniques à ce problème, mais il faut le décomposer. Il doit être décomposé en pratiques très précises. C'est généralement une bonne idée de le décomposer, par exemple, en cycle de vie de l'IA, parce que c'est vraiment un bon type de cadre pour y réfléchir. À quelles étapes dois-je réfléchir? Où; se situent mes contrôles et mes équilibres? À quel moment dois-je me préoccuper des sources de données? À quel moment dois-je m'inquiéter des préjugés? Comment puis-je atténuer ces effets, etc.

Nous devons en fait aider un peu plus les gens à décomposer ces principes, parce que souvent, le fossé se creuse entre l'interprétation de ces principes et de ces valeurs et les pratiques réelles. Et bien sûr, comment nous concevons les structures de gouvernance qui l'entourent. C'est donc là que les choses se corsent. Et ça peut être très différent. Ça peut être différent pour RNCan et pour Santé Canada, parce que le contexte change, la population que nous servons change, etc. Selon moi, le principe de la taille unique ne fonctionne pas dans ce contexte. Je crois que les principes peuvent rester les mêmes, mais que nous devons les décomposer en pratiques précises dépendant du contexte. Et ça peut être très différent d'une personne à l'autre. Mais au final, c'est le travail difficile que nous devons entamer.

[01:17:57 Mark Schaan apparaît en plein écran.]

Mark Schaan : Merci Anna. C'est une perspective tellement importante, de noter que l'intelligence artificielle n'existe pas dans un vacuum, c'est vraiment dans un contexte. Comme Natasha a dit, ça commence avec les données. Ce n'est pas possible de considérer l'implication des IA sauf d'une considération de données et aussi de l'origine de l'utilisation de la technologie. Mais aussi il y a les consommateurs des services.

On ne peut pas envisager la question dans le vide, en se demandant où; l'IA entre dans le parcours d'utilisation, puis où; elle aboutit, et comment nous pensons intégrer ces deux perspectives. L'autre chose qu'il est très important de reconnaître, c'est que le monde dans lequel nous vivons possède toujours un système analogique. Et je pense que nous l'oublions parfois. J'ai l'habitude de faire des présentations sur l'IA lors de panels du secteur privé où; je rappelle que les analogues de nombreux services du secteur privé – je m'en prends généralement à l'industrie des services financiers, ce n'est pas de leur faute – mais les décisions antérieures concernant l'accès au crédit et au capital ont été prises par des directeurs de banque masculins blancs, racistes, homophobes et coloniaux.

[01:19:24 Écran divisé : Mark Schaan; Natasha Clarke et Anna Jahn dans les panels de discussion vidéo.]

Mark Schaan : Et ce n'est pas pour s'en prendre à eux en particulier, mais c'est juste pour dire que c'était le cas en général. Nous avons la possibilité, grâce à de meilleurs systèmes de données et à la technologie, d'améliorer ces résultats par rapport à l'analogie actuelle qui produit potentiellement ce genre de résultats néfastes.

Selon moi, nous devons continuellement réfléchir à la fois à la possibilité et à l'ensemble du parcours : d'où; viennent les données? Parce que si nous prenons des décisions basées sur la technologie, mais avec des données vraiment mauvaises, nous finirons par aboutir au même résultat. Alors, pour répondre à votre question, Ima, comment pouvons-nous nous assurer que nous réfléchissons à tous ces enjeux?

[01:20:06 Mark Schaan apparaît en plein écran.]

Mark Schaan : Nous arrivons maintenant au point des questions et réponses du panel, votre question. Il y en a déjà, je pense, qui sont générés dans Wooclap, un rappel – ça me fait toujours tiquer rien que de prononcer ce mot – mais Wooclap est disponible. Il est à votre disposition. N'hésitez pas à poser vos questions. Le code QR est là. Le code de l'événement est VEOCT. Nous aurons également l'occasion de répondre aux questions de l'auditoire dans la salle.

[01:20:32 Écran divisé : Mark Schaan, et les résultats du sondage Wooclap]

Mark Schaan : Et je vois qu'elles commencent déjà à apparaître. C'est très bien, nous allons peut-être commencer par une question dans la salle. Je crois que je vois quelqu'un avec un micro juste là, alors allez-y.

[01:20:43 Mark Schaan et Ima Okonny sur scène]

Membre de l'auditoire : D'accord. Voilà. Alberto Garcia, du Conseil du Trésor. J'adore l'IA. Je l'aime beaucoup. Elle a considérablement augmenté ma productivité et ma capacité à produire des résultats. L'une des choses qui me vient à l'esprit en tant que fonctionnaire et en tant que citoyen intégré et désireux de s'intégrer à la technologie et de rendre ma vie la moins compliquée possible. Et puisque nous parlons de valeurs et d'éthique,

[01:21:30 Écran divisé : Mark Schaan et Ima Okonny sur scène; Natasha Clarke et Anna Jahn dans les panels de discussion vidéo.]

Membre de l'auditoire : Je me demande si nous ne sommes pas encore en train de réfléchir à certaines valeurs dans un contexte où; elles ne sont plus pertinentes. Pour être plus cohérent et plus clair, l'une d'entre elles est la protection des renseignements personnels. J'ai récemment déménagé et le simple fait de penser au nombre d'avis que je dois donner aux banques, aux prestataires de services, aux amis, à ceci et à ça au sujet de ma nouvelle adresse, pour ne mentionner que ça, c'est absolument énorme. Oh, mon Dieu. Une tâche de plus à faire. Et je me dis que je pourrais dire à Siri ou Alexa, ou qui que ce soit d'autre, d'envoyer ma nouvelle adresse à tous ceux qui en ont besoin et avec qui je suis en contact. Boom, c'est fait. Je n'ai pas à m'inquiéter de quoi que ce soit. Je n'ai pas besoin de faire la liste et tout le reste.

Je me demande donc, du point de vue des gouvernements, nationaux et souverains, s'il est possible d'entamer un dialogue ou d'ouvrir un dialogue sur la signification de ces valeurs dans les réalités nouvelles ou actuelles.

[01:22:59 Mark Schaan apparaît en plein écran.]

Mark Schaan : J'ai beaucoup de choses à dire, mais comme je suis le modérateur, je vais donner la parole à mes copanélistes, qui veut aborder la question de savoir si nous devons ou non revoir certaines de nos prépositions et de nos hypothèses de base sur des choses comme la vie privée dans un monde moderne et de plus en plus technologique.

[01:23:23 Ima Okonny apparaît en plein écran.]

Ima Okonny : Je peux partir de ce que nous avons appris pendant la pandémie. C'est une très bonne question, parce que pendant la pandémie, au plus fort de la pandémie, les provinces avaient besoin de renseignements. Elles voulaient comprendre ce qui se passait avec les personnes qui vivaient dans leur province. C'est simple, non? Nous ne pouvions pas partager ces données. Nous ne pouvions pas partager les données, non pas en raison de la Loi sur la protection des renseignements personnels, mais en raison de la législation et de la Loi de l'impôt sur le revenu, qui interdit tout simplement le partage de ces données. Au fur et à mesure que la pandémie progressait, nous nous sommes rendu compte qu'il fallait partager ces données avec les provinces pour qu'elles aient une vue d'ensemble de ce qui se passait, parce qu'elles avaient besoin de planifier. Nous avons dû modifier la législation pour pouvoir le faire, et nous avons pu le faire très rapidement parce que le contexte était différent de celui d'aujourd'hui.

Ce que j'ai appris de cette expérience, c'est qu'il n'y a pas que la Loi sur la protection des renseignements personnels qui pose problème. C'est aussi la façon dont nous avons élaboré la législation, parce que nous l'avons fait en fonction des différents ministères, ce qui nous empêche de partager les données entre les ministères. Et parfois, au sein d'un même ministère, il y a certains domaines où; c'est impossible de relier les données entre elles.

Donc, selon moi, et je ne sais pas si vous m'apprécierez après ça, Mark. Selon moi, nous devons revoir à nouveau la législation, parce qu'elle a été élaborée d'une certaine manière il y a de nombreuses années. Elle a été conçue pour certaines raisons. Mais aujourd'hui, à l'ère du numérique, il y a tellement de possibilités, comme je l'ai dit, de changer la façon dont nous élaborons la législation et la façon dont nous considérons les données.

L'une de mes bêtes noires, c'est que dans le domaine des données, nous sommes axés sur la communication entre nous. Mais je crois que c'est important de faire appel à des juristes, à des rédacteurs dès la phase conceptuelle, afin de pouvoir envisager l'art du possible en termes d'intégration des données. Une grande partie du problème que vous soulevez réside dans notre incapacité – ce n'est pas parce que nous ne pouvons pas le faire. Tout au long de ma carrière dans la fonction publique, nous avons réalisé des choses fascinantes en matière de liaison de données avec Statcan. Mais nous avons la possibilité d'envisager les choses de manière plus horizontale, de considérer des choses comme Client360, de changer et de faire évoluer la manière dont nous concevons et architecturons les données sans tenir compte de ces cloisons entre les ministères. Mais pour y arriver, nous devons prendre un peu de recul et revoir certaines législations. Et c'est ce que je pense. Alors, je ne sais pas, Mark, si vous m'appréciez toujours après ça.

[01:26:06 Mark Schaan apparaît en plein écran.]

Mark Schaan : Bien sûr, toujours autant. Je serais heureux d'apporter un commentaire rapide, mais Natasha ou Anna?

Anna Jahn : Allez-y, Natasha.

[01:26:22 Natasha Clarke apparaît en plein écran.]

Natasha Clarke : J'allais dire que j'ai l'impression que nous voulons tous intervenir sur ce sujet. Juste deux ou trois choses. 100 %. Nous devons examiner la législation et revoir les choses, parce que les textes ont été écrits il y a je ne sais combien de temps. Et écrit par des personnes, et nous pouvons la changer parce que nous sommes des personnes. Nous pouvons le faire et nous pouvons utiliser l'IA pour nous aider.

J'évoquerai seulement quelques points. Selon moi, nous devons toujours prendre le pouls de la licence sociale que nous avons dans le monde. Comme nous le savons, les sociétés changent, mais ça ne veut pas dire que tout le monde est d'accord pour dire à Siri de faire toutes les choses à sa place. Peut-être que mon fils de presque 16 ans sera à l'aise avec ça. Je ne suis pas sûr de l'être, mais je pense que c'est une chose à laquelle nous devons être attentifs. J'aimerais aussi partager avec tout le monde. Aujourd'hui, un certain Tom Loosemore, de Public Digital, a écrit un billet de blogue sur l'audace. Et il a fait référence à un billet de blogue écrit il y a longtemps par une femme du nom de Janet Hughes, qui se demandait si l'audace devait être une valeur explicite de la fonction publique. Et ça parlait d'arrêter d'améliorer les choses de manière progressive, mais de les réinventer complètement.

Si vous pensez à Netflix et Blockbuster, ils étaient tous deux dans le même secteur d'activité. Et Netflix n'a pas amélioré les processus des Blockbuster. Ils ont complètement réinventé la diffusion de divertissements grâce à l'utilisation de la technologie. Et c'est ce que je partagerais, je pense que nous devrions être un peu plus audacieux, et je crois que c'est ce à quoi vous vouliez en venir avec la législation. Nous devons faire preuve d'un peu plus d'audace et ne pas nous contenter d'améliorer les processus à la surface. Et c'est ici que la possibilité entre en jeu. Nous devons continuer à vérifier nos valeurs et ce qui change au fil du temps en raison des attentes et de la licence sociale dont nous disposons.

Mark Schaan : Merci, Natasha. Anna, allez-y.

[01:28:14 Anna Jahn apparaît en plein écran.]

Anna Jahn : J'ajouterais seulement deux choses, je pense que les valeurs en particulier sont renégociées en permanence, et qu'elles doivent être renégociées en permanence au sein de la fonction publique. Et quand je parle de renégocier, ça ne veut pas dire que la valeur elle-même change nécessairement, mais que la signification et l'interprétation de cette valeur peuvent réellement changer. Il s'agit d'un processus qui doit se dérouler au sein de la fonction publique. Et d'une certaine manière, c'est exactement ce qui s'est passé ici ces deux derniers jours. Il s'agit d'un processus et de se lancer dans cette négociation.

Et pour ajouter à votre point, Natasha, sur la licence sociale, je pense que les gouvernements font parfois des suppositions sur le type de licence sociale que nous avons et aussi sur la façon dont les gens interprètent ces valeurs, qu'il s'agisse de la vie privée ou d'autre chose. Et selon moi, c'est vraiment en testant ces hypothèses et en comprenant mieux où; en sont les citoyens, quelles sont leurs attentes en ce qui concerne non seulement la prestation de services, mais aussi le respect de certaines de ces valeurs, selon moi c'est un très bon exercice. Et ce dialogue n'a pas lieu assez souvent entre le secteur public et les personnes qu'il sert.

[01:29:34 Écran divisé : Mark Schaan; Natasha Clarke et Anna Jahn dans les panels de discussion vidéo.]

Mark Schaan : Oui, merci Anna. J'avais dédié plus de huit ans dans ma carrière pour la modernisation de la Loi sur la vie privée, notamment dans le contexte d'une industrie. Donc j'avais beaucoup de commentaires concernant l'évolution des considérations de la vie privée. La seule chose à laquelle nous devons penser, en particulier dans le contexte de l'IA, c'est que – et je vous entends – les gens échangent constamment leurs données pour des raisons de commodité. Et ils le font avec des acteurs commerciaux en particulier, constamment. Mais il y a un autre contexte pour le gouvernement. Il y a deux facteurs qui sont très importants.

D'une part, nous fournissons souvent des services aux citoyens et nous sommes l'arbitre de la démocratie et de l'équité, et il y a beaucoup d'informations qui sont fournies aux gouvernements et qui ne sont pas censées être partagées à grande échelle. Je suis tout à fait disposé à dire à certaines personnes que je suis membre de la communauté 2ELGBTQIA+. Je ne suis pas à l'aise avec le fait que cette information soit transmise à toutes sortes de services dont je ne sais pas nécessairement ce que ça peut signifier pour moi. Et ça nous ramène, du point de vue des valeurs, à la question de savoir comment nous travaillons réellement avec les utilisateurs finaux sur les avantages qui découlent de la prise en compte du partage d'informations. Parce que ce n'est pas toujours automatique.

J'utilise généralement l'exemple d'un membre des Forces armées canadiennes dont le dossier est transféré automatiquement à Anciens Combattants Canada, et je pars du principe que c'est toujours une bonne chose. Mais il s'avère que si ce dossier comprend à la fois des choses que nous ne voudrions plus jamais avoir à dire aux gens et des choses qui seraient super utiles, comme toutes les informations liées potentiellement à un handicap dont nous avons souffert en tant que membre des Forces armées, ça va. Mais s'il comprend aussi un tas de dossiers de ressources humaines sur le fait que nous n'étions pas un bon employé et que la fin de notre carrière n'était pas vraiment volontaire, nous ne sommes probablement pas très intéressés par le transfert de ces informations à nos collègues d'Anciens Combattants Canada. Alors dans un contexte d'IA, nous devons réfléchir très attentivement à la mesure dans laquelle ces informations alimentent les algorithmes et perdurent bien au-delà du contexte situationnel avec lequel la personne est à l'aise.

La réponse est complexe, mais je crois qu'elle souligne la nécessité de continuer à mettre l'accent sur cette question. Je pense qu'il y a peut-être, oui, une question, plus d'une question. Et ce n'est pas que j'évite la question de l'environnement, c'est simplement que je pense qu'il est très difficile d'y répondre en peu de temps. Je vais prendre une dernière question de la salle, je crois avoir vu quelqu'un avec un micro au fond.

[01:32:34 Écran divisé : Mark Schaan et Ima Okonny sur scène; Natasha Clarke et Anna Jahn dans les panels de discussion vidéo.]

Membre de l'auditoire : Bonjour. Bonjour. Merci beaucoup pour cette occasion. J'ai beaucoup apprécié ces séances. Ce sera peut-être une question difficile, mais je me sens à l'aise de la poser dans l'esprit des discussions que nous avons eues jusqu'à présent. En tant que fonctionnaire non cadre, il semble que la haute direction soit distraite par la nouvelle et grande question brillante qu'est l'IA, et nous mettons peut-être un peu la charrue avant les bœufs dans certains cas. Il est logique de penser qu'il existe d'autres enjeux plus urgents, plus anciens ou plus faciles à résoudre, que nous n'avons pas encore totalement résolus en tant que fonction publique. Par exemple, hier, nous avons eu une grande discussion, qui a duré longtemps, sur les médias sociaux. Nous aurions probablement dû l'avoir il y a une dizaine d'années. Il y a certaines questions que nous n'avons pas encore traitées avec succès.

Nous savons que l'application de la directive relative à la présence prescrite pose des problèmes de valeurs et d'éthique, qui s'ajoutent aux problèmes du système de rémunération Phoenix. Je sais que nous pouvons axer nos efforts sur plusieurs questions à la fois, mais les ressources sont également limitées et nos résultats n'ont pas été brillants ces derniers temps. Il est donc raisonnable que les Canadiens et Canadiennes n'aient pas une grande confiance dans l'application de l'IA par le gouvernement fédéral. Les fonctionnaires ont probablement des préoccupations face à notre utilisation de l'IA en raison de leur propre expérience. Ça ne veut pas dire que nous n'avons pas de personnes très talentueuses et efficaces qui travaillent sur ce sujet, qui est extrêmement pertinent et important. Ce sont des fonctionnaires dévoués et efficaces qui s'efforcent de fournir des conseils assumés. Mais c'est aux décideurs de décider, comme ça a été dit à plusieurs reprises aujourd'hui. C'est parfois difficile d'accepter les décisions qui sont prises à l'encontre de nos meilleurs conseils en tant que fonctionnaires.

Ma question porte donc sur les choses que nous pouvons contrôler. Comment travaillons-nous à la responsabilisation en matière d'utilisation de l'IA afin que nos propres politiques correspondent à nos mandats et à nos valeurs déclarées? En quoi les processus du système interne travaillant avec l'IA diffèrent-ils de Phoenix, ou de l'application de la directive sur la présence prescrite, ou de la politique interne en matière de médias sociaux? Et enfin, comment éviter les pièges d'autres projets internes antérieurs, notamment en matière d'équité, et s'assurer que nos utilisations de l'IA sont conformes aux valeurs et à l'éthique déclarées? Merci. Merci. Miigwech.

Mark Schaan : C'est une plus grande question et merci pour la question. Il y a beaucoup d'éléments qui sont contenus dans cette question. Je ne sais pas. Je serais heureux de prendre part à cette question, mais collègues, des commentaires?

[01:34:56 Écran divisé : Ima Okonny; Natasha Clarke et Anna Jahn dans les panels de discussion vidéo.]

Ima Okonny : Oui, j'ai beaucoup de réponses, mais je sais que nous n'avons pas beaucoup de temps. Ce que je peux dire, c'est que j'ai beaucoup réfléchi. J'ai réfléchi à la situation de notre pays. Comme je l'ai dit, nous avons atteint 40 millions de personnes. La population vieillit. Nous avons une population diversifiée. Nous sommes confrontés à une polycrise. Si l'on considère tous les défis auxquels nous sommes confrontés, nous avons également une occasion à saisir. Il s'agit là d'une occasion considérable. Certains d'entre nous savaient qu'il s'agissait d'une occasion il y a 20 ans parce qu'ils travaillaient dans le domaine des données et qu'ils exploitaient l'IA et les algorithmes de différentes manières.

Pour moi, la façon dont je vois les choses, et je sais qu'il y a le syndrome de l'objet brillant, certaines personnes l'ont, je le reconnais. Mais la façon dont je vois les choses, c'est qu'en fonction de tout ce qui se passe et des défis auxquels nous sommes confrontés aujourd'hui, nous devons faire les choses différemment. C'est l'occasion pour nous de prendre les devants d'une manière différente en disant que nous pouvons réellement exploiter les données, l'IA, une partie de l'automatisation, des choses comme le RP, pour changer les choses. Nous traversons actuellement une crise dans la prestation de services. Vous entendez parler de toutes les difficultés que nous rencontrons. Et nous ne pouvons pas continuer à fonctionner en tant que secteur public comme nous le faisions il y a 20 ou 30 ans.

En ce qui concerne ma façon de travailler et de réfléchir aux valeurs et à l'éthique, je me demande comment je peux tirer parti du talent de mon équipe et de celui des autres membres de l'organisation pour atteindre l'excellence. Parce qu'il est clair que plus nous fournirons de services et plus nous le ferons d'une manière inclusive et sans oublier personne, plus nous renforcerons la confiance. Dans l'état actuel des choses, je ne vois pas d'autre moyen pour nous d'y parvenir de manière ciblée, précise et mesurable que d'exploiter les données à ce stade. C'est mon avis sur la question.

Natasha Clarke : Mark, je peux, s'il reste du temps?

Mark Schaan : Oui, très rapidement. Ensuite, nous conclurons.

[01:37:15 Natasha Clarke apparaît en plein écran.]

Natasha Clarke : Juste un point de vue, parce que je ne peux pas me prononcer sur tous les éléments, évidemment, parce qu'il y a un contexte fédéral. Mais pour ce qui est de ma position, de l'approche que nous avons adoptée, et je sais que ça peut parfois donner l'impression que je suis rabat-joie. Et Mark le sait. J'ai parlé franchement aux ministres il y a quelques semaines. Nous en revenons à la question de la transformation numérique et des principes fondamentaux. Si nous ne changeons pas certains éléments fondamentaux au sein de la fonction publique, sur la façon dont nous abordons ce type de travail, je serais d'accord. Je ne sais pas si j'aurais confiance en notre capacité à mener à bien ce projet. Cette technologie fait l'objet d'un grand battage médiatique et d'un grand enthousiasme.

Mais ce à quoi je veux en venir, c'est à des choses comme l'investissement dans la culture numérique et la maîtrise des données, et l'amélioration de cette culture pour tout le monde, pas seulement pour les personnes de mon ministère ou les ateliers de TI, mais pour tout le monde. Changer la manière dont nous finançons les initiatives au sein du gouvernement, en passant du financement de projets au financement de produits et de services. Réfléchir à ce calendrier et à cet horizon, et la raison pourquoi je crois que c'est si important, c'est que l'IA va nous obliger à nous améliorer en permanence. Il ne s'agit pas d'un type de technologie que l'on met en place et que l'on oublie. Il s'agit également de mettre l'accent sur la gestion des données et de s'assurer que nous comprenons bien ces sources de données. Sont-elles éthiques, sont-elles inclusives, etc. Ce sont des choses très ennuyeuses. Je suis, comme je l'ai dit, la rabat-joie, mais je pense que ce sont des éléments fondamentaux pour réaliser les possibilités dont nous parlons, c'est-à-dire qu'au final, notre résultat le plus important est la confiance. Et ces éléments contribueront à construire tout ça. Nous ne pouvons pas oublier tout ce tricotage ennuyeux à faire pendant que nous nous lançons dans toutes ces autres activités passionnantes.

[01:39:10 Anna Jahn apparaît en plein écran.]

Anna Jahn : Je jure que je vais prendre une minute. Et en tant que personne extérieure, apprenons de nos erreurs. Je pense que c'est le plus important. Les deux livres les plus récents de Jeff Mulligan et de Yuval Harari parlent tous d'institutions qui perdent la confiance et n'apportent plus de valeur. C'est parce qu'ils n'ont pas réussi à apprendre de leurs erreurs, de leurs erreurs passées. Plus d'honnêteté, plus de recul sur ce qui n'a pas fonctionné, sur les raisons de cet échec, et sur ce que nous pouvons apprendre pour l'avenir quand nous parlons tout à coup de la nouvelle chose brillante, je crois que c'est vraiment, vraiment important. Nous sommes tous collectivement, et pas seulement dans la fonction publique, peu doués pour ça, parce que ce n'est pas amusant et que c'est inconfortable. Et oui, nous sommes de très gentils habitants du Canada qui n'aiment pas vraiment ce genre de conversations. Mais selon moi, il peut être bon de regarder en arrière et de tirer les leçons des erreurs commises.

Mark Schaan : Un grand merci aux panélistes. La dernière chose que j'ajouterais à cette question, c'est que le Canada a joué un rôle important dans le développement de cette technologie. Nous avons joué un rôle énorme dans sa création. Nos populations, nos citoyens, l'utilisent quotidiennement et ont des attentes et une confiance dans le gouvernement, qui doit s'adapter à leur situation et les rencontrer là où; ils se trouvent. Il nous incombe de penser de manière réfléchie, logique et méthodique à tous les points soulevés concernant le travail important qui en découle. Il ne s'agit pas nécessairement de trouver l'outil le plus brillant et de déterminer où; l'appliquer, qu'il corresponde ou non au problème.

[01:40:52 Mark Schaan apparaît en plein écran.]

Mark Schaan : Il s'agit en fait de renforcer les capacités afin que nous puissions prendre le risque de déployer cette technologie pour améliorer nos fonctions conformément à nos valeurs et à notre éthique. Un grand merci au panel. Des conversations plus riches à la fin de deux journées des plus riches. Donc un grand merci. Et merci à vous tous et toutes également.

[01:41:21 Nathalie Laviades Jodouin apparaît brièvement en plein écran, avec des codes QR Wooclap]

Nathalie Laviades Jodouin : Il est clair que vous attendez un autre invité. Je vais donc prendre quelques secondes pour accueillir de nouveau le greffier John Hannaford, qui prononcera quelques mots de conclusion. Merci.

[01:41:40 John Hannaford apparaît en plein écran. Texte à l'écran : Greffier du Conseil privé et secrétaire du Cabinet.]

John Hannaford : Merci beaucoup. Et merci d'avoir ajusté le micro. C'était un excellent groupe de discussion, qui a mis fin à une séance de deux jours très intéressante. Je tiens donc à remercier tous ceux et celles qui ont participé à cette activité. Je tiens à remercier Mark pour la façon dont il a dirigé cette dernière conversation. Merci à tous les panelistes et conférenciers que nous avons entendus ces deux derniers jours.

Vous savez, je pense que ce qui m'a frappé au cours de ces deux derniers jours, c'est le pouvoir des histoires. Le pouvoir d'échanger des points de vue et d'avoir des conversations significatives. Nous avons entamé ce processus il y a environ un an dans cette optique. Pour diverses raisons, la conversation était mûre. Nous tenions à nous assurer que les personnes qui avaient rejoint notre communauté avaient une idée de nos valeurs fondamentales. Il était important pour nous d'entendre parler de l'éventail des expériences qui composent aujourd'hui la fonction publique. Vous venez d'entendre parler de l'avenir des meilleures pratiques et les manières d'utilisation de l'intelligence artificielle. Cela est fascinant aussi. C'est important pour nous, pas seulement comme communauté mais aussi comme prestataire de services aux Canadiens.

Je pense que nous vivons un véritable moment. Je pense que nous vivons un moment important à plusieurs égards. Je pense que l'on attend beaucoup de nous en tant qu'institution à un moment où; les institutions sont mises à l'épreuve. Il pourrait s'agir en partie de la manière dont nous appliquons les nouvelles technologies, de l'échange qui vient d'avoir lieu. Il s'agit en partie de savoir comment nous répondons aux défis d'une géopolitique beaucoup plus complexe que celle que nous avons connue depuis longtemps. C'est de cette manière que nous nous élevons pour servir les Canadiens et Canadiennes à un moment où; ils en ont vraiment besoin. Si l'on considère l'éventail des conversations que nous avons eues ces deux derniers jours, nous avons commencé hier par un aperçu du parcours qui nous a menés jusqu'ici. Une discussion sur toutes les pratiques qui étaient impliquées dans les conversations pendant l'année. Et cela était évidemment un exemple d'échange d'idées et une conversation. Nous avons parlé de l'importance de l'inclusion, de la place centrale de l'appel à l'action et du travail essentiel que nous devons accomplir pour nous assurer que nous sommes accessibles à tous les habitants du Canada en tant qu'institution et en tant que prestataire de services. Nous avons parlé du rôle de la fonction publique dans la promotion et la défense de la démocratie. Et nous avons parlé de l'application des nouvelles technologies.

De plus, nous avons présenté les nouveaux outils et pratiques afin de répondre à certaines grandes préoccupations soulevées par les fonctionnaires lors de nos séances sur les valeurs et l'éthique. Notamment, les conflits d'intérêt, l'intégration, les orientations et l'intention des gestionnaires et les directives sur l'utilisation personnelle des médias sociaux. J'aimerais que vous consultiez toutes les ressources qui ont été élaborées au cours de cette dernière période et qui sont maintenant disponibles sur le kiosque associé à cette conférence, auquel vous pouvez accéder grâce au code QR. J'aimerais également que vous profitiez de la tribune libre dans le cadre de cet exercice.

Mais surtout, je tiens à vous laisser sur cette pensée : la discussion n'est pas encore terminée. Nous devons continuer à donner vie à nos valeurs et à notre éthique. Elles constituent un élément essentiel de notre travail. Elles nous définissent dans ce que nous faisons. C'est un thème frappant et récurant au cours de ces deux derniers jours et dans toutes les conversations que j'ai eues ces derniers temps. C'est l'affirmation de la raison pour laquelle ce que nous faisons est important. Il est essentiel que nous poursuivions ce travail. Nous vivons dans un monde où; le changement est rapide et inévitable. Nous ne pouvons pas toujours prévoir ce que ce changement va impliquer. Mais ce que nous pouvons faire, c'est construire une institution aussi solide que possible afin de nous soutenir mutuellement, de soutenir le public canadien et de soutenir nos institutions. Et c'est notre responsabilité à tous et à toutes. Je l'ai dit tout à l'heure, et je le pense vraiment.

Les dirigeants ont un rôle particulier à jouer dans la culture de notre organisation, mais nous sommes tous l'incarnation de cette culture. C'est pourquoi je suis si touché, honnêtement, par le degré de participation que nous avons eu au cours de ces deux derniers jours. Je suis touché par votre présence dans cette salle et par toutes les conversations qui ont eu lieu au cours des deux derniers jours dans tout le pays et dans les missions du monde entier. Ça démontre l'enthousiasme et ça me donne beaucoup d'espoir pour l'avenir de cette institution. Mais pour l'instant, c'est notre institution. Nous en sommes l'incarnation en ce moment. Nous sommes la fonction publique. Nous devrions en être profondément fiers et maximiser l'effet que nous avons en reconnaissant l'importance du rôle que nous jouons dans la société que nous servons.

Je tiens à vous remercier tous t toutes pour votre participation. Je tiens à remercier les organisateurs de ce symposium, car il a nécessité un énorme travail. Je citerai Chris Fox, Donnalyn McClymont, Derek Ferguson, Taki Sarantakis. Lucy Ellis, qui a écrit une grande partie de mes remarques. Je vous suis très reconnaissant pour votre leadership dans tout cet événement. Et il y a beaucoup, beaucoup d'autres personnes qui ont joué un rôle essentiel. Je pense que l'École a fait un travail absolument formidable de soutien.

Mais je tiens à vous laisser encore une fois sur un Merci. Merci pour les services que vous rendez à ce pays. Merci de votre participation aux événements d'aujourd'hui et de votre enthousiasme constant. C'est très important. Nous faisons une grande différence et je vous en suis très reconnaissant. Merci. Merci. Miigwech.

[01:48:28 Nathalie Laviades Jodouin apparaît en plein écran]

Nathalie Laviades Jodouin : Je tiens également à vous remercier, greffier Hannaford, pour votre présence tout au long de ces deux jours. C'est important, et nous l'apprécions vraiment. Donc, merci.

Alors que nous concluons notre réunion d'aujourd'hui, j'ai le grand honneur d'inviter une nouvelle fois l'aînée Verna McGregor à formuler quelques remarques finales.

[01:49:04 L'aînée Verna McGregor entre en scène et apparaît en plein écran. Texte à l'écran : Verna McGregor, aînée.]

Aînée Verna McGregor : Bonjour à tous. Il y a moins de monde aujourd'hui. Nous approchons de la fin. Lorsque je réfléchis à ces valeurs et à cette éthique, je pense toujours au contraste et à la nécessité d'honorer ce contraste. Et je pense que cette réconciliation consiste aussi à comprendre que nous avons un contraste différent dans la compréhension. C'est la raison pour laquelle je participe à ces événements, pour tenter de rapprocher les points de vue, car la crise climatique a été prédite. Nous y voilà. Et je pensais à John Hannaford, qui a mentionné le pouvoir de l'histoire. Nous nous réunissions ici et partagions des histoires sur la terre, parce que c'était aussi notre méthode d'apprentissage. Mais il s'agit également de transposer ce concept dans le scénario actuel avec l'IA. Je me rendais à une réunion avec Heritage au printemps, et j'ai dit : « Je ne sais pas de quoi je vais parler au sujet de cette IA ». Et l'esprit fonctionne d'une drôle de manière. J'écoutais ma radio et j'ai entendu une conversation sur l'IA et sur la façon dont cette rédactrice en chef utilisait l'IA pour créer des histoires. Mais lorsqu'elle a tapé différents mots-clés sur différentes personnes, la recherche a été effectuée sur l'ensemble du moteur et a fait ressortir des connotations très négatives sur une personne et des connotations favorables sur une autre personne. Et ça s'est transformé en un contraste racial, parce que vous voyez que l'IA récupère tous les mots-clés qui sont sur Internet, et a créé une histoire.

Selon moi, cette IA aura toujours besoin d'une vérification, au fur et à mesure de l'évolution des renseignements personnels vous concernant. Je vous dis ça parce que j'ai travaillé dans une banque et qu'à l'époque, on recevait une demande de prêt et l'ordinateur formulait un résultat en termes d'octroi ou de refus du prêt. Et il accèderait au bureau de crédit. Et si vous avez un bureau de crédit défavorable, c'est là qu'intervient la relation de personne à personne, car tout le monde a une histoire. Je me souviens d'une fille à qui j'ai dit : « Oui, ton crédit n'est pas bon, mais c'était dans le passé ». Elle m'a répondu : « J'étais censée me marier, mais mon fiancé s'est enfui et je me suis retrouvée avec tous les frais d'organisation. » Avec ces informations, j'ai dû rédiger la justification et elle a obtenu son prêt. Mais avec l'IA, encore une fois, et notre dépendance à son égard, cette touche personnelle n'est pas là.

Donc, encore une fois, les valeurs et l'éthique, pour que nous sachions, avec la fonction publique, que oui, nous valorisons le changement parce que le changement est la seule constante. La Covid a montré à tout le monde à quel point les choses peuvent changer rapidement. Mais elle a également prédit les temps que nous vivons, et c'est en se réunissant de la sorte que l'on peut partager ces informations et évaluer la politique et les procédures que vous mettez en œuvre. Je crois qu'il s'agit là d'un point très important.

Je vais maintenant faire une prière de clôture pour honorer votre parcours ici, ainsi que la fonction publique, qui fait partie de l'enseignement du canot. Et je vais vous faire rentrer à la maison en canot. Ne prenez pas l'O-Train. Non. Ceci est probablement plus fiable. Je vais vous chanter une petite chanson, mais si vous le souhaitez, joignez-vous à moi. Il s'agit aussi de trouver sa voix, car parfois, dans la fonction publique, on se perd dans les politiques et les procédures. Mais parfois, les conflits sont un signe que les choses doivent changer. Et la peur vous empêche parfois d'exprimer votre inquiétude. Quand je travaillais au Minwaashin Lodge, nous organisions un cercle de tambours. Il y a des enseignements sur le tambour, mais il s'agit aussi de trouver sa voix. Et trouver le courage, qui est l'un des sept enseignements de valeur des grands-pères, ce qui est, encore une fois, différent des valeurs et de l'éthique qui ont été expliquées plus tôt ici.

Donc, la deuxième partie, je vais vous chanter une petite chanson. En fait, je vais faire la chanson du canot parce que vous allez rentrer en canot et ne pas prendre le transport OC. Non, non, je ne devrais pas dire ça. Mark Sutcliffe pourrait être ici. Non, non, non, je plaisante. Non. Mais nous avons besoin de transports publics parce que, encore une fois, nous sommes confrontés au changement climatique. Le changement est la seule constante. Allons-y. Mais pour la deuxième partie, je veux que vous vous joigniez à moi, que vous trouviez votre voix. Si je chante toute seule, il y a en fait 10 000 personnes qui sont là. Si vous êtes encore là, n'hésitez pas à vous joindre à moi. De toute façon, le public ici présent ne peut pas vous entendre. Alors ça va comme suit. Il s'agit d'une pratique, alors voilà.

 <Chanson autochtone>

La première partie que je chante est : « Vous allez rentrer à la maison en pagayant ». Et c'est très expressif. On vous voit arriver au coin de la rue et les gens chantent parce qu'ils disent Vous rentrez déjà à la maison. Maintenant, ça fait un moment, et jiimaan ni veut dire canot. Et donc, le canot vous ramène à la maison, parce que c'était le centre du canot ici, à cause des quatre directions. Et honorer les quatre directions et les quatre étapes de votre vie, ce qui fait partie de la fonction publique, est aussi l'une des étapes de votre vie. Allons-y. Tout le monde est prêt? Maintenant, vous êtes prêts à participer.

<Chanson autochtone>

Maintenant, je vais faire la deuxième partie, et vous aurez une deuxième chance.

<Chanson autochtone>

C'est maintenant la dernière chance. Après ça, vous allez quitter la pièce en courant. Ce n'est pas grave.

<Chanson autochtone>

Miigwech, tout le monde. Maintenant, vous pouvez mettre de côté vos valeurs et votre éthique et rentrer chez vous. Pagayez jusqu'à la maison.

[01:57:52 Nathalie Laviades Jodouin apparaît en plein écran]

Nathalie Laviades Jodouin : C'est un peu difficile à suivre. Aînée Verna, merci encore d'avoir partagé votre sagesse et vos enseignements, et de nous avoir tous renvoyés chez nous d'une très bonne manière. Sur ce, tout le monde, c'est ce qui conclut officiellement notre symposium de deux jours. Je tiens à remercier encore une fois tous les conférenciers et conférencières qui se sont joints à nous au courant des deux dernières journées. Vos interventions, vos questions ont été absolument importantes et enrichissantes pour cette discussion. Puis il y a eu une belle énergie dans la salle et va avoir les chiffres finaux mais je crois que l'on était au-dessus de 15 000 personnes qui se sont connectées à travers le pays. Donc je pense que ça mérite quand même un applaudissement. Oui. L'École est toujours très fière de pouvoir prendre part à ces initiatives autant pour soutenir la conversation et le dialogue continu sur les valeurs et l'éthique, ainsi que toutes les autres thématiques qu'on a entendues au courant des deux dernières journées.

Vous recevrez un questionnaire d'évaluation. S'il vous plaît, s'il vous plaît, s'il vous plaît, donnez-nous votre rétroaction, pour nous permettre de poursuivre ces conversations importantes sur le devant de la scène. Et comme le greffier adjoint l'a mentionné hier, il ne s'agit pas d'une solution unique. Et j'espère qu'aujourd'hui ne fera que renforcer la dynamique des conversations qui ont lieu depuis plusieurs mois. L'importance des valeurs et de l'éthique ne commence pas et ne s'arrête pas là. Il ne s'agit pas d'une solution unique. Nous espérons vous avoir donné matière à réflexion pour reprendre ces conversations sur vos lieux de travail et dans vos contextes respectifs. Sur ce, je vous remercie encore, ce fut un véritable honneur. Et puis, à la prochaine. Merci tout le monde.

[01:59:47 Le logo animé de l'EFPC apparaît à l'écran.]

[01:59:51 Le mot-symbole du gouvernement du Canada apparaît et passe au noir.]

Liens connexes


Date de modification :