Sélection de la langue

Recherche

Série L'intelligence artificielle est à nos portes : Leçons et prévisions en matière d'intelligence artificielle pour le gouvernement (DDN2-V20)

Description

Cet enregistrement d'événement porte sur les leçons cruciales tirées de l'intelligence artificielle, en ce qui a trait au consentement citoyen, aux biais, aux répercussions économiques et aux cadres réglementaires, et présente des prévisions au sujet des incidences probables de l'intelligence artificielle sur l'avenir du gouvernement.

(Consultez la transcription pour le contenu en français.)

Durée : 01:16:11
Publié : 16 septembre 2022
Type : Vidéo

Événement : Série L'intelligence artificielle est à nos portes : Leçons et prévisions en matière d'intelligence artificielle pour le gouvernement


Lecture en cours

Série L'intelligence artificielle est à nos portes : Leçons et prévisions en matière d'intelligence artificielle pour le gouvernement

Transcription | Visionner sur YouTube

Transcription

Transcription : Série L'intelligence artificielle est à nos portes : Leçons et prévisions en matière d'intelligence artificielle pour le gouvernement

[Le logo de l'EFPC s'affiche aux côtés du texte qui indique « webdiffusion ».]

[John Medcof apparaît sur sa webcaméra.]

John Medcof : Bonjour à tous, Bienvenue à l'École de la fonction publique du Canada. Je m'appelle John Medcof. Je suis l'enseignant en chef ici, à l'école, et je serai votre modérateur pour l'événement d'aujourd'hui, lequel s'intitule __________.

Avant de commencer, il est important pour moi de reconnaître à titre personnel que, étant donné que je diffuse à partir d'Ottawa aujourd'hui, je me trouve sur le territoire non cédé du peuple Anishinaabe. Tandis que vous participiez à cet événement virtuel, j'aimerais vous inviter à reconnaître que nous sommes situés à des endroits différents et que, par conséquent, nous travaillons à partir de différents territoires autochtones traditionnels. Donc, je vous demanderais de prendre un instant et de faire une pause pour reconnaître le territoire sur lequel vous vous trouvez. Merci.

L'événement d'aujourd'hui est le huitième et dernier volet de notre série intitulée L'intelligence artificielle est à nos portes, offerte par l'École de la fonction publique du Canada en partenariat avec le Schwartz Reisman Institute for Technology and Society, le carrefour de recherche et de solutions fondé sur l'Université de Toronto. Le carrefour se consacre à s'assurer que les technologies comme l'intelligence artificielle (IA) sont sécuritaires, responsables et exploitées pour le bien.

Dans le cadre de l'événement d'aujourd'hui, nous reviendrons sur les principaux points à retenir qui ont été mis en évidence lors d'événements précédents et entendrons quelques prédictions de nos conférenciers experts sur ce à quoi rassemblera l'avenir de l'IA au sein du gouvernement et pourquoi les fonctionnaires ont plus de choses à anticiper qu'à craindre.

Donc, nous commencerons par visionner une bref exposé mettant en vedette Peter Loewen, directeur de la Munk School of Global Affairs and Public Policy de l'Université de Toronto et professeur de sciences politiques à la Munk School; par la suite, M. Loewen et Gillian Hadfield, directrice du Schwartz Reisman Institute for Technology and Society serons de la partie dans le cadre d'un groupe de discussion en direct pour explorer de manière plus approfondie certains des thèmes abordés dans l'exposé.

Enfin, nous vous invitons à poser des questions à nos conférenciers tout au long de l'événement. Pour ce faire, vous n'avez qu'à balayer le code QR à l'aide d'un appareil mobile ou à saisir l'URL à l'écran, soit le www.wooclap.com, et à saisir le code d'accès AISERIES.

Donc, ces renseignements sont accessibles à partir de là. Je souhaite également vous dire, avant de commencer l'exposé, qu'une interprétation simultanée est offerte aux participants qui se joignent à nous aujourd'hui pour la webdiffusion. Pour y accéder, vous n'avez qu'à suivre les instructions fournies dans le courriel de rappel et qui sont accompagnées du numéro de conférence; ce dernier vous permettra d'écouter l'événement dans la langue de votre choix.

Donc, sur ce, commençons par avec l'exposé.

[Un graphique s'affiche avec le texte [traduction] « série L'intelligence artificielle est à nos portes ». Peter Loewen, se tient devant la caméra.]

Exposé de Peter Loewen :

Je vous remercie de vous joindre à moi dans le cadre de cette discussion Je m'appelle Peter Loewen. Je suis professeur de sciences politiques à l'Université de Toronto et directeur de la Munk School of Global Affairs and Public Policy. Je suis également directeur associé du Schwartz Reisman Institute for Technology and Society.

[« Quel est l'avenir de l'IA au gouvernement? »]

En collaboration avec notre directrice, Gillian Hadfield, j'ai eu le plaisir d'organiser cette série sur l'IA au sein du gouvernement, intitulée L'intelligence artificielle est à nos portes.

Dans le cadre de ce dernier exposé, j'aimerais faire deux choses. Tout d'abord, j'aimerais brièvement passer en revue ce que nous avons appris dans cette série et, peut-être, ce faisant, vous encourager à regarder quelques-uns des exposés précédents que vous avez peut-être manqués.

Ensuite, j'aimerais dire certaines choses importantes sur l'avenir de l'IA au gouvernement. Ce faisant, je vous ferai part de trois réflexions importantes relativement à l'impact de l'IA sur votre travail, sur ce qui sera valorisé dans la fonction publique ainsi que sur l'avenir des démocraties par rapport aux autocraties.

Mais, d'abord et avant tout, commençons par ce que nous avons appris.

Nous avons exploré les approches contemporaines de l'intelligence artificielle et la façon dont elles représentent une forme d'apprentissage par ordinateur ou machine qui ne nécessite pas de direction humaine constante.

L'IA est une nouvelle technologie qui ne ressemble pas aux formes d'informatique précédentes. Dans un programme informatique traditionnel, chaque ligne de code est rédigée par un humain et mise à l'essai par des experts humains. Nous savons qui est la personne responsable si quelque chose ne va pas bien, mais avec les techniques d'IA modernes comme l'apprentissage automatique, c'est l'ordinateur qui rédige ses propres règles. Par conséquent, il n'est pas facile de voir ou de comprendre pourquoi l'IA fait ce qu'elle fait.

Nous n'avons pas le même contrôle sur celle-ci. Il est donc beaucoup plus difficile de déterminer comment tenir les humains responsables de ses résultats.

Nous avons besoin de nouveaux cadres et de nouvelles pratiques pour habiliter et réglementer l'utilisation de cette nouvelle technologie. Cela s'avère notamment difficile, car la technologie change si rapidement, beaucoup plus qu'au rythme auquel il nous est possible de rédiger de nouvelles lois.

Si nous voulons réussir à réglementer l'IA, nous devons réfléchir différemment à la façon dont nous concevons et mettons en œuvre des politiques afin d'élaborer des approches novatrices qui correspondent à la vitesse et à la complexité de la tâche à entreprendre.

Nous avons également appris que les formes de processus décisionnels du gouvernement et du public imposent des obligations particulières l'égard de l'utilisation de l'IA. Les gouvernements doivent prendre un grand nombre de décisions d'une façon qui est conforme aux objectifs stratégiques, équitable sur le plan des procédures et qui offre des possibilités d'apprentissage et de rétroaction. Tous les ministères se heurtent à ces défis collectifs et organisationnels. Pour les résoudre au sein de la fonction publique, il ne faut pas ignorer l'IA, mais s'attaquer directement à ces problèmes.

Le gouvernement doit obtenir le consentement de ses citoyens pour tout ce qu'il fait et nous avons appris que l'utilisation d'algorithmes au sein du gouvernement présente des défis particuliers pour le consentement des citoyens, et ce, pour quatre raisons clés. Premièrement, les citoyens appuient de nombreuses raisons différentes pour l'utilisation d'algorithmes au gouvernement, mais ils n'appuient pas un seul ensemble cohérent de justifications à l'heure actuelle En fait, l'appui en faveur de l'utilisation des algorithmes par le gouvernement varie souvent selon les lignes partisanes et idéologiques, et il faut les combler si nous voulons que l'utilisation de l'intelligence artificielle soit plus répandue.

Deuxièmement, les citoyens ont un parti pris pour le statu quo qui les mène à évaluer négativement des innovations algorithmiques. Presque par habitude, les citoyens préfèrent la façon dont les décisions sont prises à l'heure actuelle à la façon dont elle pourrait être mieux prise à l'avenir.

Troisièmement, la confiance des citoyens envers les algorithmes se développe indépendamment du bon fonctionnement de ceux-ci. Les citoyens sont des juges impitoyables des algorithmes et ils sont peu susceptibles de leur accorder la même confiance profonde qu'ils accordent aux décideurs humains.

Enfin, l'opposition au gouvernement algorithmique est plus forte chez ceux qui craignent les effets plus larges de l'automatisation dans l'IA. Autrement dit, elle est liée à des débats plus vastes à propos de ce que sera l'avenir de la technologie dans la société.

Nous nous sommes ensuite penchés sur les risques et les possibilités liés à l'utilisation de l'IA dans différentes circonstances, qu'il s'agisse d'aider ou de remplacer les décideurs humains et qu'elle soit utilisée à l'interne par le gouvernement ou d'une façon destinée au public.

Nous avons étudié les réponses réglementaires à ses utilisations et la façon dont le pouvoir prédictif de l'IA peut être utilisé pour soutenir les processus décisionnels des fonctionnaires, en leur permettant de mettre l'accent sur les décisions qui exigent un plus de jugement, de nuance et même d'empathie.

Nous avons ensuite fait un zoom arrière pour étudier les utilisations et les implications plus générales de l'IA. Avi Goldfarb nous a montré comment l'IA transforme l'économie en nous donnant des prévisions plus rapides, moins dispendieuses et plus précises.

Surtout, cela accroît la valeur d'autres choses, par exemple le bon jugement humain dans des domaines où le rendement des machines n'est pas aussi bon. Gillian Hadfield nous a présenté une compréhension juridique plus approfondie de l'importance des préjugés, de l'équité et de la transparence pour l'IA dans la pratique et en droit. Elle nous a présenté un cadre pour une IA justifiable, qui est quelque chose de différent et de meilleur que l'IA explicable dont nous entendons tant parler.

Enfin, on nous a présenté une vision globale de l'IA, d'abord grâce à l'exposé de Phil Dawson sur l'effort mondial visant à réglementer l'utilisation de l'IA et, deuxièmement, par l'intermédiaire de la classe de maître de Janice Stein sur la promesse et les périls de l'IA dans la politique étrangère.

Comme le fait remarquer M. Dawson, des douzaines de pays ont déployé des efforts pour réglementer l'IA et ont utilisé des approches remarquablement uniformes. Sont-elles efficaces? Elles ne le seront pas, à moins qu'il y ait une collaboration internationale répandue pour rendre ces règlements vérifiables et cohérents, et le secteur privé attend que les gouvernements réglementent l'IA, car il souhaite disposer d'un cadre réglementaire commun avant d'investir dans tous les progrès pouvant être débloqués par une utilisation plus vaste de l'IA.

Comme la professeure Stein nous l'a montré par l'entremise du cas ayant trait au retrait des États-Unis de l'Afghanistan en 2021, il y a beaucoup de travail à accomplir pour utiliser efficacement l'intelligence artificielle dans notre politique étrangère. Néanmoins, elle constitue une partie importante des stratégies de politique étrangère émergentes de nombreux pays étrangers.

L'IA est imparfaite et complexe, mais elle est certainement à nos portes maintenant. Quel est donc l'avenir de l'intelligence artificielle au sein du gouvernement? Je sais que bon nombre d'entre vous qui avez écouté les séances précédentes et y avez participé ont cette question à l'esprit. Vous avez posé des questions comme : « Que signifiera l'utilisation de à l'IA au gouvernement pour mon emploi? En quoi cela changera-t-il les choses? Aurai-je toujours un poste? Y a-t-il un rôle pour une personne quelconque autre que les scientifiques et les programmateurs de données? Le gouvernement sera-t-il réellement meilleur si nous nous servons des algorithmes et de l'apprentissage automatique? Quelle devrait-être la réflexion du gouvernement sur la façon d'utiliser et de réglementer l'IA d'une façon qui est conforme aux valeurs démocratiques et aux valeurs de la fonction publique? »

Bien entendu, les réponses à ces questions sont difficiles à trouver parce que l'avenir est intrinsèquement incertain et, dans certains cas, même inconnu; mais après y avoir réfléchi pendant un certain temps, j'ai pensé vous faire part de trois points de vue et peut-être, si j'ose le dire, les prédictions sur l'avenir de l'IA et du gouvernement.

La première réflexion porte sur ce que nous pourrions appeler la réalité répartitionnelle de l'intelligence artificielle. C'est-à-dire, que l'utilisation de l'intelligence artificielle est susceptible d'être répartie à l'échelle de nombreuses tâches et de nombreux emplois, plutôt que d'être concentrée entièrement dans un nombre restreint, mais nous parlerons de ce que cela signifie pour la fonction publique.

La deuxième réflexion repose sur ce que nous pourrions appeler la prime des valeurs ou l'importance accrue des valeurs et des principes dans le processus décisionnel public.

Enfin, la troisième réflexion correspond à ce que nous pourrions appeler l'avantage démocratique. C'est-à-dire, l'utilisation de l'intelligence artificielle dans un gouvernement algorithmique sera différente et meilleure dans les démocraties que dans les autocraties.

J'aimerais revenir sur chacune de ces réflexions plus en détail, à tour de rôle , puis, à la fin, partager une dernière réflexion sur la nature unique de la fonction publique et la raison pour laquelle ce secteur est peut-être plus prêt que toute autre organisation, que tout autre secteur, à employer de façon efficace et éthique l'intelligence artificielle.

Permettez-moi de commencer par vous, les fonctionnaires. Quel est l'avenir d'un fonctionnaire à une époque où de plus en plus d'emplois peuvent être automatisés? Je comprends la crainte que vous pourriez éprouver à cet égard et vous n'êtes pas seuls. En fait, lorsque j'ai sondé des milliers de Canadiens en 2019 et que je leur ai demandé s'ils s'attendaient à perdre leur emploi au profit d'un ordinateur ou d'une machine, 10 % ont affirmé qu'ils s'attendaient à ce que cela arrive au cours des cinq prochaines années; un quart d'entre eux s'attendait à ce que leur emploi soit remplacé par un ordinateur ou une machine dans moins d'une décennie.

Je dois dire que ces craintes ne se limitaient pas aux personnes occupant des postes de fabrication ou de travail manuel, mais a-t-on raison d'avoir ces craintes? Bien, la réponse dépend en bonne partie de la façon dont nous croyons que l'automatisation pilotée par l'IA sera déployée et intégrée dans les organisations. Ici, je crois que l'aspect répartitionnel de la technologie est important; quel est cet aspect au juste? C'est que pour presque tous les emplois, certaines parties peuvent être automatisées; cependant, dans l'autre sens, la totalité des parties d'un emploi ne peut être tout automatisée. Permettez-moi de vous expliquer ce que je veux dire.

Lorsque nous avons sondé les Canadiens en 2019 sur leurs points de vue et leurs craintes par rapport à l'automatisation, nous leur avons également posé des questions détaillées sur leurs emplois, non seulement sur ce en quoi consistent leurs emplois, mais également sur les tâches qu'ils ont à accomplir dans le cadre de ceux-ci. Votre travail comporte-t-il des instructions qui doivent être suivies à la lettre? Avez-vous à parler à d'autres personnes? Comporte-t-il notamment de la navigation, du travail manuel, des communications écrites?

Une fois que nous avons déterminé les tâches qui composent l'emploi d'une personne, nous pouvons mieux saisir la part des choses qu'ils accomplissent qui pourrait être automatisée au moyen de ce que les technologues appellent actuellement une technologie démontrable — et que découvrons-nous?

Bien, pour le répondant canadien moyen, 65 % des tâches qu'il accomplit actuellement sont effectuées par des machines à un niveau médian d'environ 50 %. Autrement dit, pour environ les deux tiers de ce que nous effectuons dans le cadre de notre travail, un ordinateur pourrait seulement remplacer cette tâche par un rendement égal la moitié du temps. Cela ne semble pas être une aubaine si vous achetez des robots.

Par ailleurs, 93 % de nos répondants ont au moins une tâche dans leur profession actuelle pour laquelle le rendement de la technologie actuelle se situe dans le quartile supérieur de la performance humaine ou, c'est-à-dire qu'environ 90 % des personnes doivent accomplir certaines tâches qu'un ordinateur pourrait mieux accomplir que 75 % des humains. Donc, presque tout le monde est alors au moins partiellement exposé à l'automatisation dans l'IA.

Ainsi, il s'agit du fait distributionnel, nous pourrions presque tous remplacer certaines des tâches que nous effectuons par l'automatisation, mais il resterait inévitablement des parties importantes à faire. Maintenant, que se passerait-il si les tâches que nous pourrions remplacer étaient celles que nous n'aimons pas faire ou celles qui nous causent du stress, ou peut-être plus important encore, celles que nous n'accomplissons réellement pas si bien que ça, alors que nous conservons les fonctions qui sont les plus importantes pour nous, voire encore plus essentielles ou importantes aux objets plus vastes de notre travail.

Soudainement, la mise en œuvre de l'IA s'apparente moins à une menace et davantage à une innovation bien accueillie pouvant générer une plus grande efficacité, comme le passage des machines à écrire au traitement de texte par ordinateur, des classeurs en format papier aux feuilles de calcul, ou des catalogues sur fiches aux logiciels de bases de données.

Le deuxième avenir probable de l'IA, peut-être surtout dans la fonction publique, est ce que nous pourrions appeler la prime des valeurs. L'intelligence artificielle est, selon un exemple très révélateur, une forme de technologie de prédiction. Il s'agit d'un système efficient et potentiellement en amélioration constante permettant de prédire l'issue probable d'une action au moyen des renseignements dont nous disposons sur le passé. Cette technologie est alors remarquablement prometteuse, si notre objectif consiste à déterminer quelle est la personne la plus susceptible de réussir en tant qu'immigrant sélectionné, pour estimer si une déclaration de revenus dissimule effectivement une fraude ou est honnête, ou pour déterminer si un demandeur d'assurance-emploi pourrait retourner plus rapidement au travail si on lui offrait une microcertification personnalisée.

Ce que ces machines de prédiction ne savent pas faire ou comprendre, c'est la façon dont les humains qui sont concernés par ces décisions et qui les observent les comprendront et les interpréteront. Trouveront-ils ces décisions justifiables? Accepteront-ils les motifs présentés pour la sélection d'un résultat par rapport à un autre? Auront-ils confiance en la machine de l'avenir pour prendre plus de décisions à leur place?

Pourquoi est-ce important? C'est important parce que, dans les systèmes sociaux complexes dans lesquels nous vivons, il s'agit d'une façon sophistiquée de dire que la société, les valeurs et les motifs qui sous-tendent nos décisions et nos actions importent autant que les décisions et les mesures en tant que telles, et c'est plus important, si je puis dire, dans les décisions que prennent les gouvernements que pour celles prises dans le secteur privé.

En quoi est-ce important pour l'avenir de l'IA? Cela est préoccupant, car les principaux protecteurs de ces valeurs et de ces principes ne seront pas des machines et ne seront presque certainement pas les personnes au sommet de la pyramide organisationnelle responsable de rédiger les directives sur le sujet. En revanche, la tâche incombera aux personnes qui mettent en œuvre ces décisions, que d'autres ont parfois nommées bureaucrates de rue. C'est ici qu'il y aura une prime sur les valeurs comme la confiance, la transparence et la décence. C'est à ce dernier principe de décence que j'aimerais consacrer une minute.

Dans son ouvrage précurseur intitulé La société décente, Avishaï Margalit nous demande de tenir compte du scénario suivant : Supposons qu'il y a un camion qui livre de la nourriture à des gens dans un village par temps de famine. À l'arrière du camion, chaque villageois se voit remettre une miche de pain, amplement pour se remplir l'estomac, du moins pour la journée. Ne s'agit-il pas là d'un geste généreux et noble? Qu'en est-il des personnes qui livrent le pain? Ne sont-elles pas des personnes généreuses et nobles?

Maintenant, envisageons un léger changement. Supposons que les personnes qui livrent le pain, plutôt que de remettre celui-ci à ces gens, le lancent au sol pour que les villageois fassent des pieds et des mains dans la poussière pour le récupérer. Tout le monde fini par obtenir une miche de faim et sa faim est assouvie au même niveau. Pourquoi est-ce différent? C'est différent parce que ce n'est pas décent. C'est différent parce que c'est empreint d'humiliation.

La société décente en est une dans laquelle les personnes ne sont pas humiliées. Je ne veux pas exagérer la situation ici, mais je tiens à établir fortement son bien-fondé. Le gouvernement est trop souvent une organisation impersonnelle, au sein de laquelle les expériences des citoyens équivalent à de l'indifférence, si ce n'est du mépris. Il y a un risque réel que cette expérience d'indifférence devienne encore plus courante au fur et à mesure qu'un plus grand nombre de décisions et d'affectations sont laissées aux caprices apparents d'un algorithme.

Le travail important des fonctionnaires dans ce contexte consiste à accorder une grande importance aux valeurs que sont la confiance, la transparence et la décence à l'égard de l'humanité — vous pourriez dire, qu'on entend veiller à ce que l'IA renforce l'élément humain de la fonction publique plutôt que de l'éliminer entièrement du système.

Mon troisième point, qui n'est pas le mien, mais celui de mon collègue, Henry Farrel, est que plus les gouvernements ont recours aux processus décisionnels algorithmiques et à l'intelligence artificielle, plus les différences entre les démocraties et les autocraties ressortiront. L'idée de base est la suivante : nous avons tort de penser que l'intelligence artificielle et l'apprentissage automatique déployés à l'échelle feront de pays comme la Chine une sorte de Léviathan technocratique, prêts à surpasser et, éventuellement, à effacer les démocraties.

En bref, nous avons tort de penser que le recours à l'IA et d'autres technologies rendront les autocraties plus fortes. En fait, il existe de bonnes raisons de croire que la mise en œuvre de l'IA amplifiera leurs faiblesses.

Le problème fondamental des autocraties a toujours été un mécanisme de rétroaction inefficace dans lequel le public peut exprimer son insatisfaction à l'égard de l'État. Au lieu de la rétroaction fournie par la mobilisation démocratique, les États autocrates cherchent à contrôler les citoyens. Plutôt que de recevoir l'expression réelle et organique du bonheur ou du mécontentement chez les citoyens, l'État autocrate impose un ordre et suppose que tant que les choses fonctionnent, même de façon minimale, tout le monde est heureux.

Cependant, dans ce système, les lacunes inhérentes de l'IA, les possibilités multiples de partis pris de faire son entrée dans le processus, et un manque d'harmonisation des valeurs dans ces processus amplifieront ces angles morts de l'État, menant à une plus grande discrimination de certains groupes et à plus de répression, et peut-être moins de dissidence externe, rompant davantage le seul mécanisme de rétroaction statique dont disposent ces États.

Les démocraties sont loin d'être parfaites, mais elles ont un avantage intégré. Les démocraties invitent à l'autocritique. Elles créent des incitatifs pour les groupes qui sont marginalisés ou désavantagés afin qu'ils puissent se mobiliser contre cette marginalisation ou ce désavantage, pour signaler des solutions ainsi que pour formuler des revendications politiques et juridiques afin de corriger les déséquilibres. Cela rend certainement le processus décisionnel encombrant, mais cela le rend également autocorrectif. Cette particularité est ce qui confère aux démocraties l'avantage au fur et à mesure que nous nous efforçons de trouver les meilleures façons d'utiliser l'IA et d'autres technologies pour le bien social dans l'avenir.

Surtout, il s'agit également de la bonne raison pour nous de plaider en faveur d'une transparence et d'une explicabilité maximales, pour le caractère justifiable et l'utilisation publique de l'IA, précisément pour qu'elle soit plus facile à critiquer et à corriger.

Après avoir dit tout cela à propos de l'avenir de l'IA, permettez-moi de dire quelque chose de propre à la fonction publique. Je sais que le gouvernement est parfois perçu comme un adopteur tardif, qui est en retard sur les dernières tendances, pratiques de gestion, modes et innovations. Il s'agit parfois d'une critique justifiée, mais parfois carrément dans le champ.

Toutefois, en ce qui concerne l'IA, je crois en la vérité de ce qui suit. Les fonctions publiques démocratiques sont peut-être plus prêtes sur le plan culturel d'adopter l'IA que toute autre organisation, car les fonctions publiques ont été conçues comme des systèmes d'intelligence artificielle assistés par l'humain il y a très longtemps. Permettez-moi de m'expliquer.

Le travail de nombreux fonctionnaires consiste à faire partie d'une machine de prédiction, dans laquelle on présente un problème, on formule une solution et on met à l'essai de multiples solutions au moyen des données qui sont disponibles; on formule ensuite des recommandations fondées sur une série de considérations ou d'algorithmes et, qui, éventuellement, atteignent un humain qui a à faire un choix parmi un petit nombre d'options qui s'offre à lui.

L'humain ne voit pas toutes les délibérations qui ont mené à la décision, mais il peut connaître le processus et il peut connaître les valeurs qui ont orienté le processus; il a par la suite l'obligation d'être en mesure de défendre et d'expliquer non seulement la décision, mais la façon dont on y est parvenu également. L'ensemble de ces éléments est intégré à un système bien conçu d'intelligence artificielle assistée par l'humain.

Si c'est vrai, alors l'IA peut trouver des utilisations productives et éthiques tant dans le secteur privé qu'au sein du gouvernement et peut être même surtout dans les gouvernements démocratiques.

Merci beaucoup pour le temps et l'attention que vous m'avez accordés.

[John Medcof apparaît dans une fenêtre de webcaméra. Peter Loewen apparaît dans une fenêtre de webcam séparée. Un texte apparaît indiquant : « Leçons et prévisions en matière d'intelligence artificielle pour le gouvernement » « Série L'intelligence artificielle est à nos portes ».]

Groupe de discussion

John Medcof : Peter, Gillian, c'est formidable de vous revoir. Bienvenue au dernier volet de notre série L'IA est à nos portes; je suis très heureux que vous soyez parmi nous aujourd'hui pour réfléchir à tout ce que nous avons appris à travers ces événements et pour clore cette vision de l'avenir dont parlait Peter.

Permettez-moi de commencer en vous présentant de nouveau mes remerciements à vous deux, ainsi qu'au Schwartz Reisman Institute for Technology and Society et à l'Université de Toronto de s'être associés à l'École pour concrétiser ces événements. Au cours des derniers mois, nous avons certainement eu quelques discussions fascinantes.

Peut-être avant de plonger dans cette partie de notre événement d'aujourd'hui, j'aimerais brièvement rappeler aux participants que vous pouvez soumettre vos questions ou vos commentaires à l'intention de Peter et de Gillian à l'aide de Wooclap; je crois que les détails vous ont été communiqués plus tôt, alors plongeons maintenant dans le vif du sujet.

[Gillian Hadfield apparaît dans la fenêtre d'une webcam.]

Peter, votre exposé d'aujourd'hui, selon moi, jette très bien les bases pour intégrer ce que nous avons appris jusqu'à présent et tendre notre regard vers l'avenir pour examiner ce que tout cela signifie pour nos emplois dans la fonction publique, pour l'élaboration de politiques publiques en général et, ultimement, pour nos démocraties.

Alors, commençons avec une question qui mise sur un de ces points. Un des thèmes récurrents dont nous avons entendu parlé dans cette série ont été les immenses défis et possibilités associés à la mise en œuvre d'une IA à grande échelle dans un contexte gouvernemental, et qui s'agit d'un point très important que vous avez présenté dans votre exposé; je sais que vous en avez aussi parlé dans des séances antérieures, Gillian, et ce à quoi je fais référence est le besoin permanent d'assurer la rétroaction humaine et la capacité d'agir à différentes étapes de l'application de l'IA dans un contexte de politique publique, lequel est ancré dans cette prime de valeur, je pense, dont vous avez parlé aujourd'hui, Peter; celle-ci correspond à une vision plus optimiste de ce que j'assume que nous lisons parfois sur l'IA dans la population active et dans les médias.

Alors, vous savez, pour me rendre à ma question, je me sens très stimulé et encouragé par la possibilité d'un avenir dans lequel les fonctionnaires jouent toujours ce rôle fondamental de travailler avec une IA répartie, apportant la confiance, la transparence et la décence humaines dont vous avez parlé, et je crois qu'un grand nombre de nos téléspectateurs partageraient probablement ce sentiment; je pense toutefois aussi à la façon dont j'accomplis mon travail aujourd'hui et au fait qu'il se peut que je doive élargir et renforcer mon ensemble de compétences actuel pour jouer ce rôle évolutif plus efficacement, vous comprenez — comment puis-je faire ça?

Il n'y a aucune chance que je devienne un codeur du jour au lendemain, mais, peut-être; selon vous, quelles sont les compétences, connaissances ou mentalités plus vastes dont les professionnels des politiques publiques auront besoin pour naviguer dans de nouveaux milieux de travail renforcés par l'IA, aujourd'hui et dans l'avenir? Donc, il s'agit d'une longue question, mais pourquoi est-ce que je ne commence pas avec vous, Peter, puisque vous avez introduit l'idée dans votre exposé, puis je passerai ensuite à vous, Gillian.

Peter Loewen : Merci énormément, John, de cette occasion. C'est une excellente question et je suis très heureux d'avoir la chance d'y répondre, et seulement — je crois que je remercierai, au nom de Gillian également, pour dire qu'il est merveilleux de présenter cette série en collaboration avec l'EFPC, notamment parce que comptons sur u bon nombre de collègues très intelligents pour parler de ce sujet, ce qui est un réel plaisir pour nous d'observer et d'apprendre d'eux.

Je crois qu'il y a donc un impératif ici, à tout le moins, de réfléchir à la façon dont le gouvernement peut utiliser l'IA et, vous savez, il y a quelques raisons pour cet impératif. L'une de ces raisons est qu'en réalité, elle sera utilisée à l'échelle du reste de l'économie au fil du temps et je crois qu'il est réellement important que le gouvernement ressemble au reste du monde. Ce n'est pas qu'il s'agisse d'un objectif final, mais il s'agit d'une chose importante que les gouvernements devraient faire.

Par exemple, en utilisant les améliorations apportées à l'IA pour prendre des décisions, vous savez, le gouvernement verra sa réflexion sur la façon de réglementer ses autres utilisations dans l'économie, sa familiarisation avec celle-ci et, éventuellement, sur la façon d'apprendre comment le faire améliorer. Donc, il s'agit d'un point positif pour cette raison.

Je pense que cela peut réellement aider le gouvernement, mais je crois aussi que les gens s'attendent à ce que le gouvernement s'améliore constamment dans ce qu'il fait. Je crois qu'il y a réellement un impératif ici; il s'agit presque d'un impératif démocratique pour les fonctions publiques de s'améliorer considérablement ce qu'elles font aussi rapidement que possible, car une partie de cela, genre, — il y a une très grande concurrence des idées en ce moment quant aux meilleurs systèmes dans le monde et les fonctions publiques doivent être au sommet de leur art en vue d'être dans une position qui leur permet de se défendre et de défendre ce système encore plus vaste d'une espèce de processus décisionnel démocratique dans les grandes fonctions publiques que nous avons instaurées dans ce pays tout comme dans d'autres.

Permettez-moi de parler brièvement d'une question précise, car je comprends qu'il y a deux défis ici, peut-être même trois. C'est encore un peu flou lorsque nous parlons de ces choses de certaines façons, n'est-ce pas, et c'est un peu effrayant pour certaines personnes de penser qu'elles doivent apprendre de nouvelles compétences et qu'elles pourraient se voire remplacées par un objet; malgré que je ne crois pas qu'elles le seront, ce qui correspond à la première partie de l'exposé, et puis, il est plutôt difficile de savoir et d'imaginer comment cela pourrait être fait.

Toutefois, permettez-moi de vous fournir un exemple et de parler de la raison pour laquelle je crois réellement qu'il s'agit en quelque sorte du dernier point de l'exposé : de la raison pour laquelle les fonctions publiques sont prêtes à accueillir ce changement. Donc, supposons que votre travail consiste à déterminer — vous occupez une fonction de ressources humaines (RH) au gouvernement et vous avez la tâche de trouver qui vous devriez approcher aux fins d'une formation supplémentaire en vue d'une promotion vous incombe. Donc, vous ne vous occupez pas de — aujourd'hui vous n'avez pas à congédier ou à discipliner personne. Vous effectuez des choses positives — vous donnez des tapes dans le dos des gens et vous leur dites : « Nous voyons de plus grandes choses pour vous ».

Les gens apportent beaucoup de compétences différentes aux fonctions de ressources humaines. Les personnes qui sont très doués à titre de professionnels des ressources humaines ont un réel talent quand vient le temps de repérer le talent et le potentiel des gens, et pour voir des choses chez les autres que d'autres personnes ne voient peut-être pas, mais l'IA pourrait leur venir en aide. Et nous faisons beaucoup de — le gouvernement fera beaucoup d'essais et posera beaucoup de questions d'approfondissement, aura recours à beaucoup de questionnaires et d'entrevues, mais, ce faisant, nous laissons toutes sortes de renseignements sur la table.

Vous interviewez quelqu'un pendant une heure et vous parlez pendant tout ce temps; il se pourrait que vous passiez à côté de renseignements que cette personne vous donne. Il se peut que vous ne remarquiez pas quelque chose qu'elle dit, parce qu'elle a utilisé un idiome avec lequel vous n'êtes pas familier ou, excusez-moi, vous étiez distrait ou quelque chose du genre. Eh bien, il existe des outils que nous pouvons utiliser à partir des transcriptions pour apprendre des gens et en apprendre sur la façon dont elles parlent des choses, et apprendre d'elles en se fondant sur la façon dont elles parlent sur ces choses. Nous examinons le rendement au travail des gens et le genre d'évaluations que leur donnent leurs employeurs, et nous pouvons les analyser à l'aide d'outils de données plus complexes.

Je peux vous donner toutes sortes d'exemples ici, mais le fait est que tous les outils que les professionnels des RH pourraient utiliser en ce moment pour évaluer le talent potentiel à l'avenir, ils pourraient les évaluer différemment, et même mieux, ou à tout le moins renforcer cette évaluation au moyen de différentes applications d'IA et d'apprentissage automatique.

Donc, vous êtes maintenant le professionnel ou la professionnelle des RH — que faites-vous maintenant? Eh bien, votre emploi consiste à faire preuve de jugement, mais aussi à permettre que votre jugement soit renforcé par d'autres outils qu'une personne pourrait apporter dans votre unité pour vous enseigner comment utiliser un marqueur de talents, ou quelque chose, vous comprenez? Inévitablement, il y aura un nom qui correspondra à deux mots comportant chacun une lettre majuscule, mais le point est qu'il y aura un outil que vous devrez apprendre à utiliser.

Toutefois, ce qui est réellement important , c'est que les fonctionnaires et la fonction publique, à mon avis, y sont intrinsèques. J'aimerais entendre le point de vue de Gillian sur le sujet ainsi que son explication, car elle a des idées très intéressantes non seulement sur ce que nous pourrions appeler l'explicabilité, mais aussi sur la justifiabilité. Je préparerai la voie pour vous, Gillian, et vous laissez le soin d'élaborer là-dessus, mais cette pratique est intrinsèque à la fonction publique et doit être à un niveau presque éthique pour être en mesure d'expliquer pourquoi vous avez pris les décisions que vous avez prises, n'est-ce pas?

Étant donné que vous fonctionnez dans une telle hiérarchie, n'est-ce pas, et qu'il y a tellement de commentaires à tous les niveaux, et puis il y a toutes ces petites décisions qui sont prises au sommet que quelqu'un doit être en mesure de dire qu'il a fait les choses en suivant les règles à la lettre, n'est-ce pas? En fait, c'est en fait un avantage lorsqu'on travaille avec des systèmes d'IA, parce qu'il faut être en mesure d'expliquer comment von utilise le système, à quel endroit le système a contribué et quel jugement a été fait en utilisant le système.

Ainsi, tout cela pour dire qu'en réalité, je crois simplement que les pratiques quotidiennes sont intégrées dans l'éthos d'un fonctionnaire. Notamment, le fait d'être un gestionnaire ou une personne qui prend des décisions analytiques au moment de formuler des recommandations fera en sorte qu'il vous sera peut-être plus facile de voir votre travail complété par l'IA que par une personne qui ne fonctionne pas dans un tel environnement motivé par les valeurs, dans un environnement commercial, par exemple, n'est-ce pas, un environnement qui est moins structuré.

Donc, pour répondre à votre question, John, c'est une très grande conclusion. Ce qui est intéressant à ce sujet, c'est que je pense qu'il y a...qu'il existe non seulement un besoin relatif à beaucoup d'IA pour améliorer les humains au sein du gouvernement, mais que, en quelque sorte, l'éthos et le cadre sont déjà en place pour prendre ces décisions et pour faire des choses qui sont plutôt prêtes pour l'IA. Cela n'entre pas en concurrence avec ce que les gens accomplissent à l'heure actuelle. C'est beaucoup plus complémentaire aux fonctions qu'ils accomplissent déjà dans le cadre de leur travail.

John Medcof : Super! Merci beaucoup, Peter. Un autre exemple réellement concret qui, selon moi, illustre une situation dans laquelle de nombreux fonctionnaires peuvent s'imaginer en train de travailler avec des outils d'IA. Je tiens toutefois à donner l'occasion à Gillian de répondre aussi. Gillian, y a-t-il quelque chose que vous souhaitez suggérer en termes de compétences, de connaissances ou de mentalités générales que nous devrions ajouter aux mots très encourageants de Peter voulant que nous « sachions déjà comment faire une grande partie de ça ».

Gillian Hadfield : Tout à fait. Non, tout ça est excellent. Je crois que je tiens à insister sur deux choses. L'une de ces choses a trait à l'existence de quelque chose de nouveau sur lequel on doit apprendre ici, et je partage certes le point de vue de Peter selon lequel il y a beaucoup de choses compatibles avec le genre de mentalités existantes dans la fonction publique, mais il y a également quelque chose de nouveau qui se présente. Je pense qu'il y a une certaine maîtrise de la façon dont l'IA fonctionne, et c'est la raison pour laquelle nous avons commencé la série d'exposés en explorant un peu les choses qui se trouvent sous le capot, les rouages, pour dire que vous n'avez pas besoin d'être programmeur ou encore mathématicien ou ingénieur; vous savez, que les personnes qui ont des compétences comme les miennes — et je ne suis pas programmeuse — peuvent comprendre la façon dont ces systèmes fonctionnent et peuvent comprendre, sur le plan conceptuel, comment ils font ce qu'ils font et, par conséquent, qu'ils ont la confiance pour comprendre leur rôle, le rôle de l'humain dans la supervision de tout ça.

Je pense que l'un des dangers auxquels nous sommes confrontés est que, vous savez, les gens se retrouveront devant une machine, puis diront : « Oh, c'est ce que la machine a dit ». Je crois qu'il s'agit de de la mentalité laquelle nous devons nous méfier. Nous voulons que les humains qui travaillent avec l'IA puissent dire « D'accord, l'IA travaille pour moi et je ne peux pas faire ce que fait l'IA, mais je peux comprendre ce qui produit les résultats; je connais les risques et je sais que j'ai la confiance pour être en mesure d'évaluer les résultats et de dire, "̔̔֞non, je ne crois pas que cela semblait être correct, " et —vous comprenez, ou "il se passe quelque chose d'étrange ici" ».

Je pense donc que le fait d'acquérir ce niveau de compétence, cette maîtrise est vraiment très important et, encore une fois, c'est une raison pour laquelle je pense qu'il est vraiment essentiel que tout le monde en apprenne un peu sur la façon dont cela fonctionne, et je crois que nous pouvons tous le faire.

La deuxième mentalité sur laquelle Peter a vraiment insisté, et j'aime le point sur la décence dans la vidéo et l'exemple des miches de pain, car je crois que c'est très important, la partie relationnelle de, vous comprenez, je suis un — deux humains ensemble disant, d'accord, nous sommes — vous savez, nous sommes dans cette activité ensemble, nous exploitons cette société ensemble, j'ai mon travail, vous avez le vôtre, et nous nous traitons l'un et l'autre avec respect, compréhension et décence, et j'aime beaucoup.

Je crois aussi qu'il s'agit d'une chose très importante dans un mode où l'IA, vous savez, aura la capacité de dire « Oh, vous savez, voici comment vous devriez évaluer ce dossier; voici comment votre devriez évaluer cette demande; voici comment vous devriez répondre à cette proposition politique ».

Encore une fois, il s'agit de ramener l'humanité, et je pense qu'il est simplement très important de mettre l'accent sur cela et de dire que c'est là où — c'est la partie humaine, et qu'une fois de plus, comme Peter l'a souligné, la capacité d'améliorer ce que peuvent faire les humains, pour dire, « d'accord, vous savez, cette personne est entrée dans mon bureau; avant j'avais besoin de quelques heures, de quelques jours pour comprendre sa situation, ses antécédents, vous comprenez, puis-je avoir ce genre de processus d'une façon très compétente beaucoup plus rapidement à l'aide de l'IA pour que je puisse maintenant y consacrer mon temps et mon attention d'une manière beaucoup plus efficace » , mais pas dans le sens de : « d'accord, oui, désolé, la machine a dit non, vous êtes renvoyé ».

Ainsi, il s'agit d'être compétent à cet égard et d'avoir la capacité de vraiment y apporter cet élément humain.

John Medcof : Excellent! Oui, merci de partager et j'aime comment vous avez ramené l'élément axé sur l'humain, car c'est quelque chose que, comme Peter l'a laissé entendre, vous savez, nous apportons déjà cela au travail que nous accomplissons et nous utilisons peut-être des outils différents, mais la mentalité demeure la même. La proposition de valeur ou de valeur ajoutée demeure la même.

Permettez-moi alors de poser une autre question. Dans la série, nous avons couvert une vaste gamme de thèmes et, Peter, vous en avez fait un très bon résumé dans votre exposé aujourd'hui à mon avis, et nous avons entendu d'incroyables experts mondiaux de l'IA provenant de différents secteurs — du secteur public, du secteur privé, du secteur universitaire — et je crois que la séance d'aujourd'hui fait très bien le lien entre certains de ces thèmes et propulse notre vision vers l'avant pour nous pencher sur la raison pour laquelle les valeurs et les principes dans les processus décisionnels de la fonction publique deviendront encore plus importants au fur et à mesure que l'utilisation de l'IA prend de l'importance.

En outre, comme vous le savez, une des choses que j'aimerais vous demander est la suivante : Au Canada, peut-être que nous ne sommes pas considérés comme l'une des deux ou trois, pour dire, superpuissances mondiales de l'IA. Cela dit, à la suite de cette série, je crois que nous serons nombreux à percevoir les défis auxquels nous sommes confrontés, mais aussi à se sentir très stimulés par les discussions que nous avons eues et les possibilités que vous nous avez présentées.

Donc, permettez-moi de vous demander — le Schwartz Reisman Institute assure un leadership important et regroupe l'expertise en matière d'IA ici au Canada et, permettez-moi de vous demander — dans quelle ampleur voyez-vous de l'espace pour nous en tant que nation afin d'avoir une influence ou des répercussions mondiales en ce qui a trait à l'adoption et la mise en œuvre de l'IA?

Gillian, je commencerai par vous cette fois.

Gillian Hadfield : Certainement. Merci, John. C'est une excellente question, car je crois effectivement qu'il y a une possibilité de — vous savez, le champ est toujours entièrement libre. Vous avez soulevé une espèce de superpuissance de l'IA qui bâtit une grande part de la technologie, mais le vrai défi que nous observons au sein des gouvernements et au sein de l'industrie est l'intégration de ces technologies dans nos systèmes humains. Nous l'observons dans les soins de santé, et dans l'industrie et je crois que nous l'observons également au sein du gouvernement. Une grande partie de ce casse-tête n'a toujours pas été résolue.

Donc, votre — vous savez, votre première question ayant trait à la mentalité et aux ensembles de compétences qui sont nécessaires au gouvernement concerne réellement — vous savez, cela s'appliquera aux soins de santé, cela s'appliquera à l'industrie et cela s'appliquera à bien des secteurs.

Je crois qu'il y a, vous savez — donc, imaginons ce à quoi ressemblerait le monde avec une excellente utilisation de l'IA dans le secteur public, d'accord? C'est une merveilleuse vision de, comprenez-vous, vous composez avec une personne dans la fonction publique et celle-ci a beaucoup de connaissances, elle a beaucoup d'expertise sur le bout des doigts, mais elle est en mesure de consacrer davantage de son temps et de son énergie à l'interaction respectueuse et attentive avec le public, aux choix politiques, aux communautés et ainsi de suite.

Ainsi, je ne crois pas qu'il existe cette capacité pour bâtir cela et nous ne l'avons pas encore fait. Il y a beaucoup de possibilités d'occuper également une position de chef de file en ce qui a trait à la conception du bon type de structures de réglementation entourant l'IA qui sont utilisées dans le secteur privé, ce qui est évidemment une part très importante du gouvernement.

Donc, vous savez, je crois que encore une fois, le fait d'avoir une fonction publique qui est intelligente lorsque l'on parle de l'IA, qui est enthousiaste par rapport à celle-ci, qui est créative, et qui est prête à prendre des chances et à concevoir les nouveaux systèmes dont nous avons besoin, je crois qu'il y a une possibilité réelle pour ça.

Ce que je veux dire, c'est que le Canada jouit réellement d'une bonne réputation dans le monde en ce qui a trait à sa fonction publique, notamment pour son dévouement envers ce public — envers le secteur public. Je crois donc qu'il y a de la place pour intégrer ces morceaux.

John Medcof : Super! Merci. Je pense qu'il s'agit d'un très bon portait de la façon dont nous pouvons utiliser quelques-uns des avantages institutionnels et sociaux intrinsèques, voire systémiques, que nous avons au Canada et en tirer parti pour devenir des chefs de file avec notre intelligence artificielle.

Cependant, Peter, je vais vous céder la parole pour voir s'il y a quelque chose que vous souhaitez ajouter à ça.

Peter Loewen : Oui, je veux dire, je pense la même chose que ce qu'a dit Gillian — et, néanmoins, je vais prendre, le rôle de Bourriquet quelques instants. Il y a manifestement quelque chose qui ne tourne pas rond au sein du gouvernement fédéral dans sa capacité de — et je crois que c'est très important dans ce cas, mais il y a réellement — il y a manifestement quelque chose qui ne tourne pas rond dans la capacité du gouvernement fédéral de conclure d'importants contrats de technologie. Il y a seulement — et cela concerne les données et Phénix n'en est que le début, vous savez.

Je veux dire, nous avons — comprenez-vous, il y a — le Canada deviendra en quelque sorte un musée vivant pour les langues de codage fondées sur les anciens systèmes que nous utilisons toujours pour exécuter nos systèmes, et avouons-le, je ne dis pas cela pour marquer un point facile, mais il y a quelque chose dans — nous avons une très bonne fonction publique. Elle ne commet pas souvent d'erreur majeure. En outre, elle ne — nous avons — les États-Unis ont perdu quelque 300 milliards de dollars en paiements, en paiements de soutien du revenu, pendant la première année suivant l'apparition de la COVID. Nous n'avions pas d'équivalent au Canada selon le vérificateur général jusqu'à présent, n'est-ce pas?

Ainsi, nous faisons certaines choses très bien et il y a un conservatisme naturel ici ainsi qu'une déférence naturelle envers notre fonction publique. Je crois que cela a trait à notre incapacité de réaliser le genre d'innovations qui sont vastes, à grande échelle, rapides et axées sur les données au niveau fédéral et, certainement, dans l'interaction entre les gouvernements fédéral et provinciaux.

Je crois qu'en fait — à sa juste valeur, je crois que cela se reflète dans nos banques, dans la façon dont elles pensent aux données et à l'accumulation de données plutôt que de leur partage, ne croyez-vous pas? En réalité, elles n'ont pas tant de données que ça, mais elles ne veulent pas partager celles dont elles disposent, vous comprenez?

Il y a donc quelque chose de culturel au Canada entourant une certaine part de protection des renseignements personnels et de conservatisme institutionnel qui, pour une raison ou une autre, a donné lieu à des antécédents dans lesquels nous ne sommes pas très doués pour traiter de grands degrés de données personnalisées, et Gillian peut en parler dans le contexte de la santé en Ontario, où elle a réussi à vraiment détruire quelques barrages de façon très utile.

Je vous dis ça seulement parce qu'en fin de compte, les données sont... vous savez, les données sont l'une des choses dont vous disposez pour alimenter une machine si vous voulez apprendre avec l'IA, ne pensez-vous pas?

Donc, je crois qu'il y a une certaine combinaison d'expérimentation très agressive — et par agressive je veux dire ambitieuse — à grande échelle, que nous devons faire. Nous devons montrer aux gens que ces choses fonctionnent et, au niveau fédéral, nous devons réellement être prêts à faire deux choses.

Il faut commencer par réfléchir différemment à propos de ce que nous voulons dire par « protection des renseignements personnels » et ne pas être, je pense, aussi lié que nous le sommes par des conceptions législatives extrêmement conservatrices de ce qui importe réellement aux gens, encore moins de ce que constitue la protection des renseignements personnels, et aussi permettre un certain échec, pas à l'échelle de Phénix, mais un échec dans l'administration des choses, parce que — et je peux toujours — tout le monde fini par dire « Estonie » lorsque ce genre de question est soulevée, lorsqu'on soulève un exemple d'une grande société numérique, mais il y a beaucoup d'autres endroits dans le monde où il est beaucoup plus facile de diffuser ses données financières et il est beaucoup plus facile de produire ses déclarations de revenus de façon automatique. Il existe toutes sortes d'exemples tirés du quotidien dans lesquelles il est plus facile d'entreprendre des choses dans l'interface numérique avec le gouvernement.

Il n'y a pas beaucoup d'endroits dans le monde où les gens font autant confiance à leur gouvernement. Il n'y a pas beaucoup d'endroits dans le monde qui ont, vous savez, une fonction publique transparente. Donc, nous avons ces choses que nous avons faites de la bonne façon, mais je pense que nous devons faire face au fait qu'il y a quelque chose du côté de la technologie où nous sommes simplement — il y a quelque chose qui ne va pas ici, et je ne veux pas dire dans un sens de corruption. Je veux simplement dire qu'il y a quelque chose que nous devons corriger, je pense, si nous voulons profiter de tout ça et permettre ce genre d'explosion de l'IA dans le secteur privé que nous éprouvons au Canada pour parvenir à animer nos fonctions publiques.

John Medcof : Oui, je crois que c'est vraiment un point important. Ce que je veux dire, c'est que nous avons une possibilité d'être des chefs de file, mais, si nous allons saisir cette occasion, la façon dont nous travaillons présente certains défis intrinsèques auxquels nous allons réellement devoir nous attarder très sérieusement, vous savez. La protection des renseignements personnels n'est pas une petite chose à laquelle on s'attaque; il s'agit d'une chose qui est, vous savez, très importante pour la suite des choses. Je vous remercie donc d'avoir rétabli cet équilibre et de nous avoir rappelé que, certes, il y a une possibilité, mais que nous devons bien faire certaines choses si nous allons réellement la saisir.

Peter Loewen : Oui.

John Medcof : Nous commençons à recevoir certains commentaires et certaines questions de la part de nos téléspectateurs aujourd'hui. Je vais donc procéder avec leurs questions. En fait, il y a un commentaire et une question qui portent sur le même thème. Il s'agit d'un thème que nous avons déjà abordé, mais qui demeure, selon moi, un des principaux défis auquel nombreux d'entre nous réfléchissons.

Je vais tout d'abord partager le commentaire que voici : « Il est intéressant que la position générale que l'on tient soit que les humains doivent être dans le coup pour maintenir la confiance. Cependant, l'autre position est que les humains représentent le problème, par exemple, en introduisant des préjugés dans le processus d'embauche. Si l'IA devait gérer l'embauche de manière algorithmique, cela présenterait alors le potentiel d'éliminer les décisions humaines en matière d'embauche ainsi que des choses comme le népotisme. »

La question connexe envoyée par un autre téléspectateur est la suivante : « Pouvez-vous parler de la façon dont l'IA peut accroître l'équité par rapport à la situation actuelle ou si quelqu'un a étudié cet avantage lié à l'utilisation de l'IA et à l'élimination de l'humain ayant des préjugés de l'équation? » Donc, il s'agit d'une question difficile; je sais que nous en avons parlé lors du premier événement de cette série.

Alors, Peter, permettez-moi de vous donner la parole pour connaître vos réflexions rapides à ce sujet.

Peter Loewen : Oui, c'est une excellente question, car il s'agit à plusieurs égards d'une question-cadre, n'est-ce pas? Vous savez que — et Gillian et moi avons probablement entendu cette discussion des milliers de fois à partir de l'une des deux directions différentes, n'est-ce pas? Il y a une préoccupation authentique que lorsque des intrants entachés de préjugés sont intégrés dans une IA, il en ressort des extrants entachés de préjugés.

Mais c'est aussi le cas, si vous pouvez en quelque sorte traiter ces préjugés, vous pouvez parvenir à des décisions plus rapidement et plus uniformes, de même qu'avec moins de préjugés de — vous savez — de termes officiellement statistiques, mais aussi de termes informels que vous le pourriez si des humains rendaient ces décisions.

Ce qui est remarquable à propos d'une IA, c'est qu'elle peut prendre des décisions très, très, très rapidement, comprenez-vous?

Je donnerai un exemple que Gillian m'a déjà entendu utiliser, car il soulève un point important ici; c'est-à-dire, vous savez, qu'il y a des millions d'anciens combattants aux États-Unis, car il s'agit d'un pays possédant une grande armée et qu'elle a pris part à de nombreuses guerres. Ces anciens combattants vivent souvent aux prises avec une multitude complexe de handicaps découlant de ce qu'ils ont vécu, certains d'entre eux psychologiques, d'autres, physiques.

En réalité, il n'est pas facile pour un humain d'évaluer ces handicaps, vous savez. Je vous dis que je souffre d'une douleur à la hanche. Qu'est-ce que ça veut dire, exactement? Par exemple, il se pourrait que cette douleur soit tellement insupportable qu'elle m'empêche de travailler ou il se pourrait qu'elle ne fasse que m'incommoder pendant que je marche par temps pluvieux.

Par conséquent, les déterminations des avantages sont faites par les humains en réponse à, vous savez, un certain formulaire — des parties de questionnaires et d'entrevues avec des personnes, comprenez-vous, mais souvent, les anciens combattants se sentent comme si les prestations qu'ils reçoivent ne correspondent pas à ce qui leur est dû et, dans leur processus pour trancher cette question, ils permettent aux anciens combattants de comparaître devant ce que l'on appelle maintenant un juge, mais essentiellement un arbitre, qui entendra leur affaire et qui déterminera les prestations qu'ils devraient recevoir.

Cependant, il y a tellement de cas que la personne moyenne obtient une audience de cinq minutes seulement, et lorsque vous examinez la relation réelle entre leurs conditions sous-jacentes objectives, lorsqu'elles sont adéquatement mesurées, et la décision que rend par l'arbitre — la décision rendue par l'arbitre, il n'existe aucune relation statistique, ce qui équivaut à dire que l'arbitre n'utilise en fait aucun des renseignements qui sont à sa disposition. Ils utilisent autre chose, on s'entend?

Donc, il s'agit de l'un de ces cas où vous dites, « Eh bien, ne serait-il pas parfaitement sensé de demander à une personne de remplir un formulaire, vous savez, et de procéder à un sondage et de faire en sorte que certaines de ces mesures soient bien prises et de laisser l'ordinateur déterminer la somme qui leur est due? » On pourrait penser ça, n'est-ce pas?

Toutefois, une très grande part de ces personnes qui s'adressent à un arbitre préférerait tout de même comparaître devant l'arbitre. Pourquoi? Nous aimons nous faire entendre par des humains. Il y a quelque chose dans ce processus de raisonnement dans lequel le simple fait de vous parler de mon problème et de me faire entendre me paraît plus équitable.

Ainsi, nous pourrions appliquer cela à un certain nombre de choses et il s'agit de l'une des raisons pour lesquelles nous avons recours à un humain, n'est-ce pas? Il s'agit de l'une des raisons pour lesquelles, peu importe les différends fiscaux que vous avez avec l'Agence du revenu du Canada (ARC), vous pouvez toujours parler à un humain en fin de compte, n'est-ce pas, ou peu importe votre problème avec l'assurance-emploi, vous pouvez toujours en parler avec une personne.

Nous éliminons les humains de l'équation et ce que vous éliminez de l'équation est parfois un préjugé fondé sur l'iniquité, mais vous éliminez parfois aussi la compassion, car il est difficile pour un ordinateur de faire preuve de compassion, vous comprenez? Lorsqu'on élimine ce sentiment qu'une personne au gouvernement tend l'oreille, qu'il y a un visage humain, donc — et cela ne répond pas à la question, sauf pour mettre en évidence le fait qu'il y a plus d'une raison de demander à un humain de rendre une décision, et une partie de cette raison est profondément procédurale, vous voulez que quelqu'un vous écoute réellement, n'est-ce pas?

Il pourrait sembler une bonne idée que nous — vous savez, nous pourrions devenir tellement bon en matière d'IA et d'interface homme-machine que nous soyons en mesure de faire en sorte qu'une machine exprime authentiquement de la compassion envers des gens dans une situation où ils reconnaissent réellement que nous ne cherchons pas à les tromper, mais ils comprennent que les machines ont pensé à tout ça, n'est-ce pas?

Je crois que nous sommes loin d'en être arrivés là. Idéalement, n'est-ce pas, ce que vous obtenez est un mélange de juges qui sont authentiquement aidés par une machine qui leur dit à quoi devrait correspondre la moyenne statistique pour cette allocation, puis ils rendent, vous savez, les décisions autour de cette moyenne, par exemple, un peu plus, un peu moins, en tenant compte de cette raison.

John Medcof : Oui, merci. Je pense, encore une fois, qu'un autre exemple réellement concret qui illustre très bien votre point , et j'y reviendrai, est la possibilité d'apprentissage dont vous avez parlé et la capacité de la machine d'apprendre et de se corriger en cours de route pourrait être un élément nous permettant d'y parvenir, n'est-ce pas?

Et peut-être, alors que nous reproduisons peut-être certains de nos préjugés dans le système, au fur et à mesure que les systèmes deviennent de plus en plus intelligents, y aura-t-il une façon d'y faire face? Gillian –

Peter Loewen : John, si je peux intervenir juste quelques secondes. Je veux dire, — parce que vous — parce qu'il — l'apprentissage est la partie importante et l'écoute est la partie importante. Vous pouvez imaginer que, si vous pouviez créer — répondre à un sondage n'est pas amusant. Je me suis appuyé sur les données de sondages tout au long de ma carrière et je, tout simplement — que Dieu bénisse les personnes qui répondent à mes sondages. Ce n'est pas très amusant de cliquer à travers une foule de trucs, j'en conviens.

Imaginez toutefois que nous pourrions en fait concevoir une bonne interface homme-ordinateur dans laquelle les personnes éprouvent authentiquement le sentiment que l'ordinateur les écoute et qu'il s'intéresse à ce qu'on lui dit, et où l'ordinateur leur pose des questions d'approfondissement, vous savez, une interaction, ou il y a un autre humain à l'écran de l'autre côté, posant les questions et saisissant les données.

Il y existe des façons dont nous pouvons nous imaginer faire usage de, vous savez, une certaine combinaison de tâches humaines et effectuées par des ordinateurs pour renforcer réellement la compassion avec laquelle nous et le soin avec lequel nous assurons la prestation des services gouvernementaux, mais aussi pour améliorer les décisions et éliminer ces préjugés.

Donc, vous renforcez en fait les deux, n'est-ce pas? Il n'y a pas nécessairement — nous ne sommes pas encore au point de la fonction de production pour ce que nous pouvons faire, n'est-ce pas? Je crois que nous pouvons rendre les choses moins entachées de préjugés et les rendre parallèlement plus humaines en tirant parti de la technologie.

John Medcof : Il s'agit d'un excellent point. Il ne s'agit pas de faire un compromis entre les deux. Il existe un monde où nous pouvons tous les deux continuer à nous développer en même temps. Merci pour ton commentaire. Gillian, y a-t-il autre chose que vous souhaitez ajouter à cette question sur les préjugés découlant des entrées humaines?

Gillian Hadfield : Oui. Donc, les deux personnes ayant posé les questions soulèvent quelque chose qui passe sous silence, alors que nous mettons beaucoup l'accent sur le reste des préjugés algorithmiques qui a attiré beaucoup d'attention et qui est, vous savez, la raison pour laquelle nos algorithmes sont entachés de préjugés est que la façon dont ils sont actuellement bâtis est fondée sur l'historique des décisions humaines, qui est lui-même entaché de préjugés.

Ainsi, cela nous ramène, en quelque sorte, à, vous savez, pouvons-nous bâtir des systèmes qui contribuent à éliminer tout ça, et bien entendu, je ne parle pas seulement de préjugés. Je pense que cela fait également partie de ce sur quoi Peter veut en venir; il ne s'agit pas uniquement de préjugés dans un sens intentionnel, bien entendu; il s'agit de préjugés inconscients. C'est ce qui se passe parce que vous êtes fatigués, c'est parce que — c'est ce qui se passe lorsque vous avez, réellement, tout simplement un tas de décisions à rendre, vous savez, que vous ne pouvez possiblement pas prendre d'une manière réfléchie.

Dans les cours des petites créances, par exemple, j'ai passé beaucoup de temps à réfléchir à l'accès à la justice; vous savez, le juge ne consacre que cinq minutes à votre cas. C'est plutôt mauvais du point de vue du plaideur. C'est aussi très mauvais du point de vue du juge en ce qui concerne la façon dont il rend ces décisions.

Donc, je pense effectivement que c'est ce que nous devons aspirer, à construire des systèmes qui peuvent nous conduire à cet idéal essentiel pour ce genre de fonction publique et c'est, vous savez, l'équité, la neutralité, la réceptivité, le fait de se faire entendre, comprenez-vous. Nous vivons aujourd'hui dans un monde où il y a un écart si énorme entre l'idéal de ce que nous sommes censés obtenir d'un examen de notre décision en matière d'avantages sociaux ou d'une décision dans notre affaire de droit de la famille, ou quoique ce soit d'autre, et ce que nous obtenons réellement, car le volume, la complexité, la vitesse sont tout simplement, vous savez, cela nous ralentit tellement et crée cet écart.

Je pense qu'en réalité ces deux questions portent sur la raison clé pour laquelle il est tellement important de — juste pour revenir sur un point par en arrière que Peter avait soulevé selon lequel nous devons avoir cette confiance et cette créativité, cette ambition de repenser la façon dont nous établissons le gouvernement, la façon dont nous établissons les règlements, et pas, vous savez, d'aborder ces questions, comprenez-vous, en adoptant une position accroupie défensive, je suppose, pour garder cette idée en circulation.

John Medcof : Oui, et il s'agit peut-être d'une autre mentalité que nous devons apporter à notre démarche à l'égard de l'IA et du gouvernement.

Vous voyez, la conversation que nous sommes en train d'avoir génère beaucoup de questions et de commentaires de la part des téléspectateurs. Donc, je vais revenir à une question qui aborde ces points connexes concernant les données et la protection des renseignements personnels dont vous avez tous deux parlé.

Nous avons maintenant la question suivante : « Votre point concernant le partage des données et l'élimination des cloisonnements est un bon point et pourrait constituer un nouvel avantage afin de conserver les principaux talents ici, au Canada. Par exemple, certains chercheurs de données sur les soins de santé très doués ont quitté le Canada au profit des États-Unis, car il leur est plus facile d'avoir accès aux ensembles de données sur lesquels ils souhaitent travailler. À qui incombe ultimement la responsabilité d'améliorer l'accès aux données? »

Et, dans la même veine d'idée, on demande si vous pourriez étayer la façon dont nous devrions examiner la protection des renseignements personnels ou y réfléchir, et comment nous pouvons faire mieux.

Peter, je vais revenir à vous, puisque vous étiez — vous avez été le premier à soulever ce point lié à la protection des renseignements personnels comme étant un de nos défis épineux.

Peter Loewen : D'accord, je laisserai Gillian parler des données sur les soins de santé, mais je présenterai un point à ce sujet avant ça, mais en ce qui a trait à la protection des renseignements personnels, je ne suis pas du tout un expert en la matière et, en réalité — nous disposons de quelques experts très futés, très intelligents en ce qui concerne la protection des renseignements personnels, c'est-à-dire David Lie et Lisa Austin.

David est informaticien tandis que Lisa est avocate. Écoutez les parler de —d'un point de vue d'informaticien et d'une avocate, et écoutez les parler de la protection des renseignements personnels. Vous commencez à constater que, au niveau technique, il est extrêmement compliqué, n'est-ce pas, de déterminer la façon de mettre sur pied un système qui est conforme à ce que nous tentons d'atteindre à l'aide des lois en matière de protection des renseignements personnels, vous comprenez?

Je crois que la difficulté est simplement — d'un point de vue politique et économique, simplement la façon dont j'y pense un peu est la suivante : les sociétés dans le domaine de la protection des renseignements personnels sont devenues très bonnes, de façon implicite, à nous faire voir la valeur de nos données, du moins, en partie, n'est-ce pas?

Et le fait qu'elles nous livrent les annonceurs que nous voulons n'est en fait pas une mince affaire, n'est-ce pas? En tant qu'enfant — en tant que parent dont l'enfant livrait le Saturday Star le long du chemin Premier un mile dans chaque direction et ce journal qui faisait un pouce de publicités...

[Loewen holds his thumb and index finger about an inch apart.]

... vous vous rendez compte que c'est très bien de pouvoir livrer des publicités personnalisées. Les gens donnent tout à tout le monde et c'est réellement révolutionnaire, mais au-delà de ça, vous savez, la livraison de renseignements en ligne et de journaux — vous savez, le Globe and Mail a une page d'accueil entièrement algorithmique et personnalisée dans son journal. Il s'agit d'une révolution réelle concernant la consommation des renseignements des gens.

Donc, nous voyons implicitement, je pense, la valeur dans la façon dont le secteur privé tire parti de nos données privées, dans certains cas, au niveau qu'il peut le faire. Il n'en parle pas, mais il le montre, n'est-ce pas?

Aussi, un exposé sur le Règlement général sur la protection des données (RGPD) en Europe a été publié la semaine dernière. Je l'avoue, je l'ai regardé rapidement, mais pas attentivement. Cet exposé comprend des allégations portant sur l'effet du RGDP sur – c'est-à-dire les données, le cadre européen sur la confidentialité des données, ses effets sur les entraves à l'innovation dans la création d'applications sont simplement stupéfiants en ce qui a trait aux coûts d'innovation de ces données.

Donc, il y a — donc, nous avons au moins cette conversation dans le secteur privé, mais je ne sens pas que le gouvernement formule réellement cet argument de manière proactive quant à la raison pour laquelle il souhaite obtenir les données, comprenez-vous?

Donc, peut-être vous souvenez-vous des demandes de Statistique Canada, il y a quelques années, qui cherchaient à avoir accès aux données bancaires sur les Canadiens et qui a donné lieu à un énorme tollé dans la Chambre des communes. La raison est que certaines personnes ne croient pas que le gouvernement devrait savoir le montant qui se trouve dans leur compte bancaire par principe, tandis que d'autres personnes ne veulent pas que l'ARC voie ce qui se trouve dans leur compte bancaire, vous voyez? Il n'y avait pas d'argument complet quant à la raison pour laquelle ces données étaient — la raison pour laquelle ces données étaient utiles pour StatCan et ce qu'on pouvait apprendre de celles-ci, vous comprenez, et nous ne parlons tout simplement pas de cette façon au sujet des avantages que nous pourrions obtenir en sachant des choses à propos des données.

Je vous donnerai un exemple de plus que Gillian m'a déjà entendu utilisé auparavant. Nous avons créé — la conception la plus inutile possible pour une application de traçage des contacts est celle que nous avons adoptée au Canada, car c'était celle qui préservait le mieux la protection des renseignements personnels. Au cœur d'une pandémie qui changeait la vie des gens, qui les voyait enfermés dans leurs maisons, notre leadership politique n'a pas eu le courage de dire, nous devons suivre vos allées et venues afin de pouvoir vous dire si vous vous teniez aux côtés d'une personne qui était infectée et que nous puissions vous dire où vous étiez lorsque c'est arrivé, pour que vous puissiez le dire à d'autres qui n'avaient peut-être pas l'application. Ils n'ont même pas essayé de formuler cet argument. Au lieu, ils ont présenté l'argument selon lequel, voici cette chose et cela ne se fera jamais — vous savez, et c'était un travail de rassurer les gens à maintes reprises et cela a créé en revanche un outil inefficace.

Donc, seulement en ce qui a trait à l'économie politique de la question, je dirais que nous ne sommes pas engagés dans la pratique où les fonctionnaires et les dirigeants publics nous disent pour quelle raison nous pourrions vouloir faire un compromis entre certains renseignements auxquels nous renonçons et ce que nous pourrions obtenir en échange qui pourrait être mieux, vous savez, ce que nous pourrions obtenir en échange qui serait mieux.

Je crois que cela fait partie du problème; nous présumons que les gens ne voudront pas échanger ces données lorsque, dans leur vie privée, ils nous laissent entendre, par leurs comportements du quotidien, qu'ils sont prêts à accepter d'échanger ces données.

Je dirai qu'une autre chose au sujet des soins de santé, puis Gillian pourra vous en parler plus en détail, car elle connaît bien ce sujet, mais il s'agit d'une chose curieuse, ne trouvez-vous pas? Il y a — je formulerai cette allégation : Je crois qu'il est vrai que la province de l'Ontario est le plus grand acheteur de soins de santé en Amérique du Nord, plus grand que n'importe quel réseau d'hôpitaux aux États-Unis, avec une population incroyablement diversifiée.

Si nous étions en mesure de résoudre le problème concernant la façon d'utiliser notre population, d'utiliser notre système pour apprendre à propos des nouveaux traitements et d'apprendre à propos — vous savez, essentiellement de dresser des cartes d'ECR, d'essais cliniques randomisés en médecine, pour mettre à l'essai des produits pharmaceutiques et différentes techniques de chirurgie, et ainsi de suite, nous pourrions être l'un des sites d'innovation en soins de santé les plus dynamiques, utiles et généralisables dans le monde. Nous pourrions probablement financer une très grande part, si non pas la majeure partie, de notre système de soins de santé de cette façon, n'est-ce pas?

Cependant, Gillian peut vous dire à quel point il est difficile en réalité de saisir les données sur la santé.

John Medcof : Super! Gillian, cela semble être le moment propice pour vous céder la parole.

Gillian Hadfield : Oui. Donc, Peter pense à l'expérience que j'ai eue, que Schwartz Reisman a eue, dès les premiers jours de la pandémie, alors que nous tentions d'aider à résoudre les problèmes liés aux données, et je crois — donc, je crois que ces questions nous mènent vers quelque chose de très fondamental et il s'agit d'un excellent exemple du point plus général, que nous devons changer nos perceptions des choses afin d'acquérir cette créativité.

Donc, immédiatement avant le confinement, Schwartz Reisman a mis en œuvre ce que nous appelons un atelier des solutions avec — pour le compte de Diabète Action Canada, qui avait porté à notre attention le problème auquel se heurtait l'organisation en tentant de bâtir un référentiel partagé, des recherches et ainsi de suite pour les soins, la détection et le traitement du diabète au Canada; c'est-à-dire, qu'il était presque impossible d'avoir accès aux données.

Il a fallu trois ans pour que les hôpitaux acceptent de partager les données afin de permettre aux chercheurs de travailler avec celles-ci – pour le traitement, vous savez, uniquement les données cliniques, — nous avons, pour insister sur ce point, vous savez, que Peter a mentionné, c'est — l'Ontario, par exemple, est un énorme acheteur de soins de santé, mais parce que nous disposons de systèmes de soins de santé publics dans tout le pays, nous avions sous la main parmi les meilleures données sur les soins de santé au monde.

Nous sommes une société multiculturelle. Nousjouissons d'une excellente couverture, entendons-nous. Nous avons les — nous n'avons pas les mêmes problèmes que vous verriez dans un système d'assurance privée où de très nombreux groupes sont exclus des soins ou obtiennent une qualité de soins très différente. Donc, nous disposons des meilleures données sur les soins de santé au monde, mais nous avons pris des dispositions et il s'agit essentiellement d'une conséquence de la façon dont nous avons établi notre conception juridique entourant la protection des renseignements personnels.

Les données sont conservées dans des dizaines de milliers de cloisonnements et le risque juridique, le risque public, le risque lié à la perception et le risque pour la réputation entourant le transfert de ces données sont tels que le tout est freiné. Ce type de partage de données ne se produit pas.

Nous avons donc organisé cet atelier immédiatement avant le confinement qu'a engendré la pandémie en mars 2020, et donc, vous savez, je crois qu'on peut s'entendre sur davantage de choses à ce propos. Il y a plus — il y a des possibilités qui s'y trouvent. Peter a mentionné plutôt David Lie et Lisa Austin, qui travaillent avec nous, vous savez, les approches à la façon dont nous pourrions organiser les données et les recueillir à un endroit pour être en mesure d'entreprendre plus de recherches sur celles-ci, pour être en mesure d'éclairer le traçage des contacts, de formuler ses options de traitement et d'éclairer la construction d'outils alimentés par l'IA afin d'aider à détecter les cas et de répondre à la pandémie.

Et, jour et nuit, nous tentions seulement d'instaurer ce modèle. Nous — vous savez, nous avons fait une partie du chemin, mais le — et je parle de maintenant, je crois, en revenant sur le point de Peter et en adoptant le point de vue de Bourriquet, que, vous savez, nous avons encore du travail à accomplir, que l'infrastructure de la protection des renseignements personnels et les normes à ce propos étaient telles qu'il était simplement presque impossible d'avoir une nouvelle approche créative, merveilleusement protectrice des renseignements personnels, mais une approche différente, une approche qui devait reconnaître que, vous entendez, nos approches historiques à l'égard de l'identification ne fonctionnent pas à l'ère de l'IA et nos modes de pensée ayant trait à la minimisation des données ne fonctionnent pas à l'ère de l'IA.

Nous avons besoin de nouvelles solutions et il y a absolument de nouvelles solutions, mais tout le monde doit dire « d'accord, je reconnais que la façon telle que j'ai approché ce problème ou la façon dont nous avons institutionnellement abordé le problème pendant plusieurs décennies doit céder sa place à quelque chose de nouveau », et peut-on se concentrer sur ce qui devrait nous importer, un autre point sur lequel Peter insiste, ce qui ne concerne pas exclusivement la protection des renseignements personnels, vous comprenez? Il ne s'agit pas uniquement de s'assurer que personne ne découvre le résultat de votre test antigénique ou à quel endroit vous vous trouviez le mardi après-midi à 16 h 30.

Il s'agit de découvrir si nous pouvons — si ces données ont une valeur publique, une valeur publique qui, avec la pandémie, en réalité, se comptait en nombre de vies et nous devons être en mesure de reconnaître que c'est — vous savez, comment allons-nous saisir cette valeur publique? Comment allons-nous recruter ces données par rapport à cette valeur? Les données sont une chose entièrement différente aujourd'hui à ce qu'elles étaient il y a 20, 30, 40 ans lorsque nous avons développé ces systèmes pour la première fois.

Il s'agit donc d'un excellent exemple et j'espère qu'il puisse donner à la personne qui a posé la question une petite idée de la façon dont nous devons en quelque sorte réfléchir différemment au sujet de la protection des renseignements personnels, car nous devons percevoir les données autrement et les conséquences associées au fait de nous en tenir à nos systèmes désuets.

John Medcof : Oui, merci. Je veux dire, vous soulignez un point très important — notre environnement évolue à un rythme tellement rapide. Nous devons trouver des façons de nous y adapter et permettez-moi de saisir cette occasion pour, en quelque sorte, vous comprenez, réfléchir à ce que nous avons peut-être observé au cours des derniers mois.

La série s'intitule « L'IA est à nos portes ». Elle est maintenant à nos portes et l'une des choses dont nous avons parlé lorsque nous avons lancé cette série d'apprentissages en novembre, vous savez, il y a huit événements, était à quel point tout dans le système se développe rapidement et la façon dont nous devons y répondre et saisir les occasions qui se présentent, mais si nous y repensons, même seulement aux six derniers mois, je vous demanderais peut-être, avez-vous vu un développement important sur les plans technologique, juridique, idéologique, voire commercial ou de la politique publique en matière d'IA au Canada ou à l'échelle internationale qui peut aider à servir de catalyseur pour ce changement?

Par exemple, se passe-t-il quelque chose en ce moment ou vient-il de se passer quelque chose qui changera la donne et qui nous permettra possiblement de surmonter quelques-uns des défis auxquels nous sommes confrontés?

Cette fois-ci, je commencerai avec vous, Gillian. Y a-t-il quelque chose que vous souhaitez ajouter à cet égard?

Gillian Hadfield : Eh bien, j'ai passé un temps considérable à réfléchir à l'aspect réglementaire de cette question. Donc, manifestement — vous savez, la question est liée à l'utilisation de l'IA au sein du gouvernement, mais elle concerne aussi comment le gouvernement interagira avec la réglementation de l'IA, vous savez, dans tous les endroits où nous la retrouverons, ce qui veut dire à peu près partout, on s'entend.

Je crois que le — donc, ce que j'ai trouvé encourageant au fil de de cette période au cours de laquelle j'ai vu cette discussion avoir lieu — le Royaume-Uni (R.-U.) a appelé cela, vous savez, accorder attention à l'idée que nous devons bâtir, vous savez, tout un écosystème afin d'assurer que l'IA est sécuritaire et qu'elle est bâtie selon notre vision ainsi que pour créer les incitatifs pour bâtir ce type d'IA.

Si nous allons concevoir une IA qui, vous savez, peut améliorer la neutralité du processus décisionnel, par exemple, comme l'ont soulevé quelques-unes des questions antérieures, ou si nous allons bâtir les systèmes qui peuvent assurer que les données, même en volumes et en quantités massives, sont conservées de manière sécuritaire et appropriée tout en assurant la protection des renseignements personnels, si nous allons faire tout ça, nous allons avoir besoin de tout un écosystème de fournisseurs qui attestent qu'ils découvriront ce que ça veut dire pour que l'IA soit équitable et ainsi de suite.

Donc, j'ai observé le développement de ce mode de pensée plus avancé sur le problème auquel nous nous heurtons comparativement à — vous savez, l'approche de la Loi sur l'IA de l'Union européenne (UE), qui a été déposée il y a environ un an, concernant les mesures législatives proposées qui sont toujours selon une approche très descendante. Donc, je ne vois pas cela comme une réponse créative, une réponse souple ou quelque chose qui peut composer avec le taux de changement et la rapidité du changement. Donc,il a été encourageant de voir ce développement.

Du côté de la technologie, nous sommes seulement — tout bouge tellement vite et je crois que la principale chose que nous voyons est que l'échelle du système est énorme et qu'il ne s'agit pas de systèmes que vous pouvez seulement retirer et dire, d'accord, voici un système, nous l'évaluerons. Ce sont des systèmes immenses et un grand nombre de ceux-ci sont bâtis les uns par-dessus les autres.

Donc, il y a, vous savez, quelque chose — ce que les chercheurs de Standford ont appelé les modèles de fondation, lesquels constituent d'immenses modèles qui servent à analyser le texte réel et le langage naturel, et que l'on utilise pour bâtir toutes sortes d'autres choses, y compris pour faire du codage, et ces modèles sont simplement — vous savez, il s'agit de système d'échelle, rapides. Cela continue simplement à — oui, c'est réellement — c'est étonnant.

Par conséquent, je dirais qu'il s'agit de quelques-uns des développements que j'ai observés au cours des six derniers mois depuis que nous avons commencé cette série.

John Medcof : Oui, formidable. Ces modèles changent la donne. Peter, avez-vous récemment vu quelque chose que vous considérez comme un catalyseur pour une voie à suivre?

Peter Loewen : Bien, j'aimerais vous parler de quelque chose qui change la donne dans notre industrie, c'est-à-dire l'éducation à laquelle Gillian et moi-même participons,et qui s'avère importante, c'est-à-dire — j'ai lu un compte rendu cette semaine du potentiel pour... était-ce GPT-3, Gillian?

Gillian Hadfield : Oui.

Peter Loewen : Pour générer des essais, il s'agit donc – essentiellement, selon ce que j'ai pu comprendre, d'un énorme ordinateur à Silicon Valley; vous lui posez une question et il vous fournit une réponse, mais sa capacité de synthétiser l'information et de la transformer en un essai écrit sur une question donnée qui semble différente chaque fois que vous lui posez la même question, ce qui veut dire qu'il crée une réponse unique pour laquelle vous ne pouvez pas exécuter un outil de détection de plagiat. Il s'agit de quelque chose de potentiellement très perturbateur dans le domaine de l'éducation, car les étudiants l'utiliseront pour rédiger leurs essais.

Parallèlement, il y a — vous savez, de nouvelles technologies qui sont lancées, lesquelles ne sont que superposées sur Google Scholar, qui est en soi une IA plutôt simple qui sert à fournir des réponses à des questions théoriques. Vous voulez poser la question, vous savez, « Qu'est-ce qui augmente le taux de participation des électeurs? » ou, vous savez, « Quel est le régime le plus efficace pour lutter contre la maladie du cœur? » Il existe actuellement des technologies qui, essentiellement, synthétisent toute réponse qui figure dans le résumé d'un article universitaire.

Cela ne fait qu'accélérer la vitesse. Cela accroît réellement la vitesse; le deuxième produit dérivé est donc positif. Il nous permet de rédiger des choses et d'apprendre des choses dans notre monde. Cela créera des problèmes pour les professeurs qui tentent de prendre sur le fait les étudiants qui ne rédigent pas leurs propres essais; mais ce que cela représente dans un sens plus important est à quel point nous nous rendons rapidement au lieu où les connaissances peuvent être synthétisées à un niveau élevé d'abstraction. Il s'agit d'un développement réellement positif, oui.

Pour les fonctionnaires, il s'agit de quelque chose de très positif, n'est-ce pas, parce que, souvent, le travail d'un analyste politique ou d'une personne qui conçoit une politique consiste à tenter de répondre à un tas de questions très difficiles, qui présentent de très grandes limites d'incertitude, rapidement aux fins d'un certain objectif politique, vous savez; et je ne dis pas cela de manière péjorative, mais dans l'objectif de faire avancer un certain dossier. Cette tâche s'accomplit avec toutes sortes d'incertitudes et un manque d'expertise ou, lorsque vous voulez apporter une expertise, c'est incroyablement lent, car il faut procéder à une étude attentive et/ou à une consultation élargie.

Par conséquent, le taux avec lequel nous avons accru notre capacité à poser des questions tirées de la littérature universitaire et d'y répondre, autrement dit, des connaissances scientifiques, me semble très impressionnant. Cela se déroule plus rapidement que je le pensais et je trouve ça intéressant non seulement pour nous en tant qu'universitaires, mais aussi si les personnes en arrivaient à ce type de bonnes interfaces pour qu'elles soient utilisées facilement par les fonctionnaires. Cela pourrait changer réellement la façon dont vous apprenez au sujet des choix politiques, et se faire très rapidement.

John Medcof : Oui, cela semblerait très prometteur. Cela commence peut-être dans le secteur universitaire, mais certainement, selon le point que vous soulevez, vous pouvez voir de nombreuses applications pour un tel outil, plus général et plus particulièrement dans le contexte des politiques publiques.

Bon, il ne nous reste que quelques minutes; je vais donc inviter chacun de vous à nous faire part, en une phrase, d'un point important à retenir que vous souhaitez transmettre à nos participants alors que nous mettons un terme à la série. Je commencerai par vous, Gillian. La parole est à vous.

Gillian Hadfield : D'accord, le principal point que retiendront, les participants, je l'espère, c'est qu'il est vraiment très important pour nous tous, pas seulement les informaticiens, de bâtir une IA ainsi que les systèmes connexes. Celle-ci doit demeure profondément liée à nos systèmes humains et à nos modes humains consistant à entrer en relation avec les uns avec les autres.

À l'heure actuelle, je suis très préoccupée par le fait qu'elle soit aussi dominée par les informaticiens, que j'aime bien, mais je suis très critique pour ceux d'entre nous qui ne sommes pas des informaticiens y prennent part et participions à la création de ce nouveau monde.

John Medcof : Excellent, merci. Un appel pour que nous y participions tous. Peter, l e dernier mot est à vous.

Peter Loewen : Oui, donc, on s'entend que les vies qui furent changées par Gutenberg n'étaient pas seulement les vies des imprimeurs. Ce changement a été très répandu et le rythme auquel l'IA changera la vie de nous tous dans la technologie en général, mais tout particulièrement l'IA, est très rapide et sera très, très répandu.

Ainsi, je crois que nous — vous savez, qu'il y a seulement trois sous-points à la phrase, n'est-ce pas? Le premier sous-point est que nous devrions être prêts à ce que cela se passe rapidement; nous devrions comprendre qu'il s'agira d'une phase perturbatrice; nous devrions en quelque sorte traiter cette perturbation en faisant preuve d'une certaine prudence, mais nous devrions également y adhérer et, troisièmement, que, vous savez, les gouvernements démocratiques doivent être des chefs de file dans la façon de déterminer comme se servir de l'IA de manière adéquate et constructive, car le secteur privé ne sera pas saisi des mêmes impératifs moraux. Le gouvernement le sera et Dieu sait que la Chine le sera. Il s'agit donc réellement d'un rôle essentiel que les fonctions publiques, notamment comme celle du Canada, ou le Canada en particulier, doivent jouer.

Donc, voilà l'une des excellentes raisons pour laquelle nous avons créé cette série, ce dont nous sommes heureux d'avoir fait.

John Medcof : C'est une occasion extraordinaire pour nous d'être un chef de file. Merci à vous deux, Peter et Gillian, pour votre temps et pour les précieuses réflexions que vous avez partagées avec nous aujourd'hui. Et de manière plus générale, au nom de l'École de la fonction publique du Canada, je tiens non seulement à vous remercier tous les deux, mais à remercier tout le monde du Schwartz Reisman Institute qui a contribué à donner vie à la série sur l'IA au cours des huit derniers événements avec l'aide de conférenciers invités réellement impressionnants.

Nos téléspectateurs, à mon avis, ont fait un parcours vraiment incroyable en ce qui a trait aux différentes facettes de l'IA et l'impact transformateur que celle-ci peut avoir sur la quasi-totalité des aspects de nos vies personnelles et professionnelles. Nous sommes donc extrêmement reconnaissants d'avoir eu l'occasion de travailler avec vous afin de présenter du matériel d'apprentissage d'une aussi grande qualité à notre public de la fonction publique.

À nos apprenants, nous espérons que vous avez aimé l'événement d'aujourd'hui issue de la série L'IA est à nos portes. Nous aimerions entendre votre rétroaction sur la séance d'aujourd'hui par l'intermédiaire de l'évaluation électronique qui vous sera envoyée par courriel; vous trouverez également un lien vers quelques-uns des événements et quelques-unes des séries qui sont accessibles sur la page Web de l'École.

Sur ce, je conclus. Une fois de plus, merci beaucoup, Peter. Encore une fois, merci beaucoup , Gillian, et merci à tous d'avoir été de la partie.

Peter Loewen : Merci. Au revoir.

Gillian Hadfield : Super! Merci, John.

[Le clavardage vidéo s'estompe pour faire place au logo de l'EFPC.]

[Le logo du gouvernement du Canada s'affiche et s'estompe pour faire place à un écran noir.]

Liens connexes


Date de modification :