Sélection de la langue

Recherche

Série Café virtuel de l'EFPC : L'intelligence artificielle avec Gillian Hadfield, Karen Hao et Shingai Manjengwa (vidéo)

Description : Le 2 mars 2021, l'École de la fonction publique du Canada a été en compagnie de Gillian Hadfield, directrice d'Institut Schwartz Reisman pour la technologie et la société à l'Université de Toronto, Karen Hao, reporter principale sur l'IA à MIT Technology Review, et Shingai Manjengwa, directrice d'enseignement technique à l'Institut Vecteur en intelligence artificielle, et fondatrice, Fireside Analytics.

Série Café virtuel de l'EFPC : L'intelligence artificielle avec Gillian Hadfield, Karen Hao et Shingai Manjengwa

Date : 2 mars 2021

Durée : 01:00:34

Résolution : 1080p


Transcription

Neil Bouwer : Bonjour à tous. Bienvenue à l'événement d'aujourd'hui de l'École de la fonction publique du Canada. Cet événement s'inscrit dans le cadre de notre série de Cafés virtuels, qui vise à présenter aux fonctionnaires des penseurs et des leaders intéressants, issus de la fonction publique ou non, afin d'explorer des idées et des sujets importants pour le pays et d'avoir des discussions réfléchies. Merci à tous d'être parmi nous aujourd'hui. Nous sommes vraiment ravis de votre présence.

Je m'appelle Neil Bouwer. Je suis vice-président de l'École de la fonction publique du Canada. J'ai le plaisir d'être l'animateur virtuel aujourd'hui et je vous remercie pour votre participation virtuelle. Nous avons plus de 1 200 téléspectateurs et participants aujourd'hui. C'est fantastique. Vous pouvez poser des questions au moyen de Wooclap aujourd'hui. Vous pouvez aller sur Wooclap.com sur n'importe lequel de vos appareils. Le code de cette séance est VC0302. VC comme « Virtual Cafe » et 0302 comme « le 2 mars ». Veuillez vous connecter à Wooclap. VC0302. C'est ainsi que vous pourrez poser des questions. Nous disposons également d'une interprétation simultanée pour cet événement. Veuillez suivre les instructions dans le courriel de l'événement si vous souhaitez l'écouter dans la langue officielle de votre choix.

Nous sommes vraiment heureux d'avoir cette discussion aujourd'hui sur l'intelligence artificielle. Que vous l'aimiez ou que vous la détestiez, que vous soyez curieux ou que vous soyez convaincu, l'IA est de plus en plus omniprésente dans nos vies. Les nouvelles que nous lisons sur Internet, tous les messages que nous recevons sur nos téléphones, les voitures qui, grâce à la technologie d'assistance au maintien dans la voie, vous maintiennent dans les lignes jaunes – et, espérons-le, pas pendant que vous consultez votre téléphone –, les films et les émissions de télévision que vous regardez et qui vous sont recommandés par Netflix, YouTube ou d'autres plateformes. Ce sont toutes des façons de plus en plus courantes pour l'intelligence artificielle et l'apprentissage automatique d'entrer dans nos vies.

Pour l'essentiel, je pense que nous verrons qu'elle améliore notre vie et qu'elle nous aide à mesure qu'émergent de nouvelles technologies. Nous commençons également à voir les effets, et parfois les effets sociétaux alarmants, que l'IA pourrait avoir à mesure qu'elle se développe et s'intègre encore plus profondément dans les différents aspects de notre vie professionnelle et privée.

Par ailleurs, l'intelligence artificielle progresse si rapidement qu'il est difficile pour les organismes de réglementation de suivre le rythme en termes de types de surveillance ou de types de lignes directrices ou de directives que le secteur privé et les autres organisations de la société doivent suivre. Cela peut créer des lacunes et des vulnérabilités qui peuvent entraîner, par exemple, des violations de la vie privée ou des problèmes d'inclusion ou d'égalité et d'équité.

Cela est particulièrement important étant donné le réveil de la société à l'égard du racisme systémique, des préjugés implicites et de la discrimination qui peut avoir lieu autour d'un certain nombre de facteurs. Ceux-ci sont profondément ancrés dans notre culture, nos pratiques et nos institutions, et aussi par défaut dans nos données. Lorsque nous nous appuyons sur ces données pour l'apprentissage automatique et l'intelligence artificielle, ces préjugés peuvent apparaître au grand jour et jouer un rôle important dans nos vies. Cela fait beaucoup de sujets à aborder et beaucoup de sujets à décortiquer. Nous sommes ravis de pouvoir compter sur un groupe de leaders aussi éminents pour nous aider à en discuter.

Tout d'abord, nous avons Karen Hao. Elle est journaliste principale sur l'intelligence artificielle à la MIT Technology Review, où elle couvre les questions relatives à la recherche et aux incidences sociétales liées à l'intelligence artificielle. Elle rédige un bulletin d'information hebdomadaire intitulé The Algorithm sur ce sujet. En plus de son travail au MIT, Karen coproduit un balado sur l'IA, In Machines We Trust. Bienvenue, Karen.

Ensuite, Gillian Hadfield. Gillian est la première titulaire de la chaire Schwartz Reisman en technologie et société de l'Université de Toronto, ainsi que professeure de droit et de gestion stratégique. Elle est également conseillère principale en politiques d'OpenAI à San Francisco, ainsi que conseillère auprès de tribunaux, d'autres organisations et d'entreprises technologiques dans ce domaine. En 2017, elle a publié le livre Rules for a Flat World: Why Humans Invented Law and How to Reinvent it for a Complex Global Economy. Bienvenue, Gillian.

Ensuite, Shingai Manjengwa. Shingai est la fondatrice et la PDG de Fireside Analytics. Il s'agit d'une entreprise en démarrage spécialisée dans les technologies de l'éducation qui aide à enseigner la littératie des données et la science des données aux gens, des enfants aux PDG. Je ne lui demanderai pas à qui il est le plus difficile d'enseigner. Elle est également directrice de l'enseignement technique du Vector Institute for Artificial Intelligence de Toronto. Vous vous souvenez peut-être aussi qu'elle a remporté le Prix des leaders émergents du Forum des politiques publiques en 2020. Bienvenue, Shingai.

Pour commencer, peut-être dans l'ordre où je vous ai présentées chacune, donnez-nous cinq minutes sur votre point de vue sur l'intelligence artificielle et quelques réflexions. Nous allons commencer par vous, Karen.

Karen Hao : Merci beaucoup, Neil. Bonjour à tous. Merci beaucoup de m'avoir invitée. J'ai eu une pensée que je voulais communiquer aujourd'hui pour encadrer un peu la conversation. Quand je parle de l'IA et de la société, je parle en fait de l'automatisation des décisions humaines et de la société. Quand j'ai commencé, je pense que l'IA commençait tout juste à entrer dans la conscience du public. Quand je disais aux gens quel était mon travail, ils me disaient « Ouah, c'est très spécialisé. Que passez-vous votre temps à faire? » Maintenant, c'est exactement le contraire. Seulement deux ans et demi plus tard, les gens disent : « Ouah, comment faites-vous pour comprendre quelque chose d'aussi vaste? ».

À mon avis, même si l'IA ou les algorithmes peuvent se manifester de façons tellement différentes, il y a essentiellement deux piliers fondamentaux à travers lesquels je fais mes reportages. Je me souviens que les systèmes d'IA sont toujours conçus par des personnes et qu'elles imprègnent donc une certaine vision du monde et un ensemble de valeurs dans l'algorithme ou le système d'apprentissage automatique qu'elles construisent. Je me souviens également que le système aura inévitablement une incidence sur un autre groupe de personnes et que ces visions du monde ou cet ensemble de valeurs leur seront imposés, pour le meilleur ou pour le pire.

Je réfléchis aux questions suivantes : Comment voulons-nous que l'IA nous touche? Comment en faire une force du bien? Comment mettre en place des garde-fous réglementaires pour s'assurer qu'elle continue à être une force du bien? Nous ne devons pas mettre l'accent sur l'IA, mais plutôt sur les personnes et le contexte dans lequel elle fonctionne, et comprendre qu'il y a des personnes qui la manipulent pour prendre ces décisions automatisées. En définitive, la prise de décision algorithmique est une forme de prise de décision humaine automatisée. Voilà mon cadre et mes commentaires pour la discussion d'aujourd'hui. Merci beaucoup.

Neil : Fascinant, Karen. J'ai hâte d'y revenir dans les questions-réponses. Ensuite, Gillian.

Gillian Hadfield : Merci, Neil. Merci d'avoir lancé la discussion, Karen. Je pense que c'est une très bonne façon de présenter les choses : les personnes qui sont devant la prise de décision automatisée et celles qui sont derrière. Je pense que c'est vraiment essentiel.

Pour moi, je pense à la façon dont vous parlez de créer ces défis réglementaires. Je travaille dans le domaine de la conception juridique et réglementaire. Cela fait plusieurs années que je réfléchis à cet espace. Ce que je vois, ce sont deux défis réglementaires importants. Nos approches réglementaires actuelles ne sont pas vraiment adaptées à l'IA. Les technologies évoluent à une vitesse bien supérieure à celle de nos approches historiques de la réglementation. Elles exigent des niveaux d'expertise technique plus élevés et une grande partie de ces données et de cette expertise technique est enfermée dans les entreprises technologiques que nous devons réglementer. Je pense qu'il y a un défi réglementaire important à relever pour nos approches actuelles de la réglementation. Je pense que c'est l'une des raisons pour lesquelles je me concentre sur l'innovation juridique et réglementaire dans ce domaine.
Je tiens également à souligner le risque de ne pas savoir comment réglementer l'IA et, par conséquent, les données. Chaque fois que je me retourne, les gens me parlent de la gouvernance des données. Je pense que cela fait partie intégrante de l'IA aujourd'hui. Il y a deux côtés à ce défi réglementaire. Que se passera-t-il si nous ne parvenons pas à suivre l'évolution de ces technologies complexes et rapides? Le premier est ce que Karen a souligné. Je pense que c'est implicite dans ce dont elle parlait.

Il existe des technologies en particulier – elle se concentre sur la prise de décision automatisée – qui peuvent être nuisibles parce qu'elles reproduisent les préjugés existants. Elles sont discriminatoires. Elles peuvent être injustes et perturber notre société. Il s'agit de la prise de décision automatisée concernant les recommandations que vous avez mentionnées, Neil, ou le fil d'actualité. Ce n'est pas seulement un problème de discrimination. Cela perturbe également notre politique, nos relations, notre stabilité sociale et la santé mentale des personnes qui deviennent dépendantes. Je pense qu'il y a la partie nocive de la technologie qui nécessite une intervention réglementaire, que nous avons vraiment du mal à fournir. Mais je voudrais également souligner que nous pourrions faire beaucoup de bien dans le domaine des soins de santé, des changements climatiques, des transports et des villes intelligentes. Il y a beaucoup de bonnes décisions automatisées.

La prise de décision automatisée va au cœur des choses. J'y réfléchis depuis longtemps. Les problèmes d'accès à la justice : 80 à 90 % des personnes n'ont accès à aucune forme de prise de décision structurée ou doivent se présenter au tribunal sans avocat. Il faut beaucoup de temps pour obtenir une décision en matière d'immigration ou pour obtenir quoi que ce soit qui soit réfléchi. S'il existe des moyens d'automatiser cela de la bonne manière, cela peut effectivement donner aux gens un meilleur accès à la justice. J'y réfléchis. C'est là que l'absence d'une bonne réglementation constitue en fait un obstacle au développement de l'IA pour le bien social.

Ce que je vois, c'est que nous avons ce déséquilibre dans la façon dont l'IA se développe. Elle prend de l'avance dans le secteur privé, parce qu'elle est liée à ces incitatifs qui proviennent des recettes publicitaires. Cela apporte de bonnes choses. Si notre Zoom fonctionne aussi bien, c'est grâce à l'IA et à ces incitatifs. C'est une bonne chose. En attendant, elle est bloquée dans nos secteurs publics. Nos secteurs publics ne suivent pas, non seulement dans la réglementation du secteur privé, mais aussi dans le fait que nous devons prendre du recul et examiner notre économie. C'est vraiment calme ici dans le secteur public. Je pense que c'est un réel déséquilibre auquel nous devons réfléchir. C'est pourquoi je pense que la mise en place d'une bonne réglementation et d'approches novatrices en matière de réglementation constitue un tel défi.

Quand je regarde dans le monde, très, très peu d'endroits l'ont résolu. Nous avons encore des difficultés à le faire. Je pense que nous faisons un sacré bond en avant. C'est le cadre de ma réflexion sur l'IA ces jours-ci.

 Neil : Je pense que c'est fascinant pour tous les fonctionnaires en ligne. J'espère que certains d'entre eux se disent « défi relevé » et qu'ils réfléchissent à la manière d'améliorer la situation du secteur public en matière de bonne utilisation de l'IA pour produire de la valeur publique. Nous y reviendrons. Shingai, c'est à vous.

Shingai Manjengwa : Merci. Bonjour, Neil. Bonjour à tous. Je suis très heureuse d'être de nouveau parmi vous aujourd'hui. Je vis à l'intersection entre le commerce, la science des données et l'éducation. Comme Gillian l'a fait remarquer, le commerce galope plus loin que toutes les autres composantes.

Je parlerai davantage de l'éducation dans le sens où nos systèmes éducatifs n'ont pas vraiment rattrapé le rythme de développement de l'intelligence artificielle. Nous avons des systèmes éducatifs qui sont très bons pour donner aux jeunes, mais aussi à nous tous, une compréhension du monde physique. Cependant, la plupart d'entre nous ne savent pas vraiment comment un courriel passe d'un endroit à un autre. Nous ne comprenons pas non plus très bien le fonctionnement de nos appareils mobiles. Souvent, en posant la question « pourquoi les ordinateurs ont-ils besoin d'électricité? », vous obtiendrez des réponses très créatives de la part de personnes qui les utilisent tous les jours. Si nous partons de ce principe, nous devons vraiment nous concentrer sur la manière de réparer nos systèmes éducatifs à la base, mais aussi sur la manière de former et d'habiliter nos décideurs politiques afin qu'ils puissent réellement participer à cette conversation.

À cette fin, j'ai modifié ma façon de penser et mon approche de l'enseignement technique pour commencer à considérer l'IA comme un sport d'équipe. Vous n'y arriverez pas uniquement avec le chercheur en IA qui travaille sur les modèles complexes ou l'apprentissage par renforcement sur la façon de battre le prochain jeu AlphaGo. Nous n'y arriverons pas avec cette seule personne. Cependant, si nous pouvons amener cette personne à s'asseoir dans le même espace que quelqu'un comme Gillian, qui apporte la perspective juridique et certaines des perspectives des sciences sociales et si nous pouvons également les amener à s'asseoir avec les décideurs politiques, alors peut-être pourrons-nous arriver à un endroit où la réglementation de l'intelligence artificielle peut réellement se produire. C'est l'un des défis fondamentaux que je vois dans cet espace.

Par exemple, au Vector Institute, mon travail consiste à prendre la recherche sur l'intelligence artificielle – les travaux de pointe les plus récents et les plus importants – et à l'intégrer dans des programmes que l'industrie peut absorber. C'est mon travail. En ce moment, nous donnons un cours sur les préjugés en matière d'intelligence artificielle. Ce cours, destiné aux petites et moyennes entreprises, est financé par le Conseil national de recherches du Canada. Je le mentionne, parce qu'en travaillant avec ces PME, je vois vraiment ce que cela signifie pour elles de traduire des questions vraiment difficiles en termes d'équité et de préjugés dans leurs modèles d'affaires et dans le déploiement de ces modèles. Je suis désormais sensible au fait que nous n'y arriverons pas uniquement avec l'ingénieur ou l'informaticien titulaire d'un doctorat. C'est ce que je voulais dire et je vais en rester là. L'IA est un sport d'équipe et nous devons vraiment former et habiliter nos décideurs politiques afin qu'ils puissent réellement participer à la conversation.

Neil : Merci, Shingai. J'ai beaucoup aimé ce que vous avez dit. Il est rafraîchissant d'en parler comme d'un sport d'équipe plutôt que comme d'une équipe interdisciplinaire ou multidisciplinaire, ce qui, à mon avis, évoque le même sentiment. Merci à tous. C'est vraiment fascinant. Il est difficile de savoir par où commencer. Karen, commençons par vous. Alors que nous voyons l'omniprésence de l'IA dans différentes facettes, dans l'économie, dans les appareils domestiques de Google et d'autres appareils, dans nos véhicules, comme nous en avons parlé, et dans la vie privée, pourriez-vous nous dire où, selon vous, l'IA va créer le plus de perturbations? Quelles parties de l'économie ou de la société sont, selon vous, sujettes aux changements les plus perturbateurs? Je demanderai à chacune d'entre vous votre réaction à ce sujet. Karen.

Karen : C'est une très bonne question. C'est drôle. Je pense en fait que la plus grande perturbation se produira avec l'utilisation de l'IA dans les systèmes gouvernementaux, pas nécessairement dans le secteur privé. Pour un peu plus de contexte, j'ai beaucoup réfléchi récemment aux algorithmes gouvernementaux.

J'ai travaillé sur ce reportage où j'avais parlé à un groupe d'avocats spécialisés dans la pauvreté. Ils travaillent avec des clients qui n'ont pas vraiment les moyens d'engager des avocats et qui ont perdu toute forme d'accès aux services de base ou aux besoins fondamentaux. Parfois, il s'agit d'une perte d'accès aux services du secteur privé. Par exemple, ils ont de lourdes dettes de carte de crédit et ne sont pas en mesure de se procurer un logement ou une voiture. Parfois, il s'agit de la perte des prestations publiques. Par exemple, ils ne peuvent pas faire garder leurs enfants, obtenir des allocations de chômage ou bénéficier de Medicaid aux États-Unis.

Ce qui est intéressant, c'est que lorsque j'ai commencé à parler avec ces avocats, ils m'ont dit que de plus en plus, ces décisions sont en fait prises par des algorithmes. Les avocats se trouvent dans une situation vraiment bizarre, où ils doivent défendre leur client face à une entité anonyme, car lorsqu'ils essaient de se battre avec le gouvernement pour comprendre pourquoi leur client n'a pas obtenu Medicaid aux États-Unis, le témoin à la barre est une infirmière, mais celle-ci n'a aucune idée de ce que fait l'algorithme. Ils ne peuvent pas vraiment aller à la racine de la raison pour laquelle ce client s'est vu soudainement refuser un service essentiel.

Cela m'a amenée à beaucoup réfléchir à l'utilisation d'algorithmes pour allouer et distribuer des ressources, en tant que cas d'utilisation très convaincant. Cela est largement applicable dans les différents organismes gouvernementaux lorsqu'ils réfléchissent à la manière de distribuer plus efficacement, plus équitablement et plus justement les ressources dont ils disposent au sein de la population. Cela a également des conséquences très lourdes, car ce sont ces services qui fournissent le filet de soutien sur lequel beaucoup de gens comptent lorsqu'ils traversent des moments difficiles. Je ne sais pas si c'est la réponse que vous attendiez, mais je pense que les algorithmes pourraient être les plus perturbateurs, que ce soit de manière négative ou positive, lorsqu'ils sont appliqués à des cas d'utilisation gouvernementale.

Neil : C'est intéressant. Gillian, vous avez abordé ce sujet en termes d'application de la loi. Il s'avère qu'une grande partie du droit consiste à examiner la jurisprudence, à rechercher des cas similaires, à examiner les résultats et à établir des corrélations. Il semble que ce sera potentiellement très perturbant pour la profession juridique. Avez-vous des commentaires à faire à ce sujet ou sur d'autres secteurs susceptibles d'être perturbés?

Gillian : Je voudrais commencer par dire que l'IA est une technologie polyvalente. C'est en fait la raison pour laquelle nous devons nous attendre à ce qu'elle soit si perturbatrice, car elle peut vraiment se retrouver n'importe où. Je pense qu'il est très difficile pour nous de prédire où nous allons voir le plus grand nombre de perturbations ou ce que cela pourrait signifier.

Pour réfléchir au point que Karen a soulevé sur le rôle de l'IA dans la prise de décision, elle parle de décisions relatives aux prestations. Il y a des décisions en matière d'immigration. Il y a des décisions concernant le logement. Nous avons en fait une tonne de décisions qui sont prises. Le point de départ est que la grande majorité des gens n'ont aucun éclairage. Ils n'ont pas d'avocat pour aller voir pourquoi ils ont obtenu des prestations ou pourquoi ils n'en ont pas obtenu. Vous êtes constamment en train de cliquer sur ces petites cases en ligne et personne ne les lit. Je suis professeure de contrats. Je ne les lis pas. Personne ne les lit. Vous ne pouvez pas les lire. Ça ne sert à rien de les lire.

Je pense en fait qu'il est possible de construire des systèmes de prise de décision automatisée, qui pourraient donner aux gens un meilleur accès à une compréhension fiable de la manière dont les règles sont interprétées et mises en œuvre. Mais, cela exige de les construire différemment de ce que nous faisons actuellement.

Je ne sais pas qui a pensé que la façon de construire un système de prise de décision en matière de justice pénale, de soins médicaux, de soins de santé ou de prestations était de regarder comment nous l'avons fait historiquement et de simplement former la machine à reproduire ce que nous avons fait historiquement. Nous savons que c'est rarement la façon dont nous voulons que cela soit fait. Nous voulons que cela soit fait d'une manière qui soit conforme aux règles. Nous devons construire ces systèmes de cette manière.

Cela correspond exactement à un sujet sur lequel je travaille ces jours-ci dans le cadre de mes recherches avec des chercheurs du Vector Institute. On parle beaucoup de l'explication des décisions, mais cela porte sur l'explication mathématique et les variables importantes, alors que les humains veulent des justifications. Ils veulent qu'on leur dise qu'il y a une raison qui est cohérente avec les raisons que nous autorisons dans nos sociétés. Je pense que c'est le vrai défi. Comment faire pour que nos systèmes de prise de décision automatisée s'intègrent dans nos systèmes de raisons et de justification?

Karen a fait appel à l'image de quelqu'un à la barre. L'infirmière à la barre. Comment intégrer les machines dans cela? Parce que c'est ce qui est essentiel pour la stabilité de nos sociétés. Lorsque je m'inquiète de ce que pourraient être les grandes perturbations, c'est que les gens commencent à avoir l'impression que le monde n'est pas équitable ou qu'il l'est moins actuellement. Vous pouvez atteindre un point de basculement où je pense que vous avez vraiment beaucoup de perte de valeur, d'avantages, de stabilité, de bien-être et de bonne vie. Je pense que Karen met l'accent sur quelque chose de vraiment important en termes de perturbation potentielle et de ce que nous devons faire.

Neil : Absolument. Revenons à certaines de ces tensions et de ces compromis, ainsi qu'à certaines idées ou perspectives sur la manière de les aborder. Mais d'abord, Shingai, avez-vous d'autres réflexions sur le potentiel destructeur de l'intelligence artificielle ou sur des domaines particuliers auxquels vous pensez à cet égard?

Shingai : Oui. Un dicton africain dit que lorsque les éléphants se battent, c'est l'herbe qui souffre. Le changement que j'observe concerne l'emplacement du pouvoir, la nature sans frontières de ces technologies et le fait que si mon IA est plus forte que la vôtre, je peux franchir votre frontière et influencer et modifier votre société. Je pense que c'est dans la manière dont vous vous gouvernez que se produiront les plus grandes perturbations. Ce n'est pas la plus sexy. Ce n'est pas celle dont nous voulons vraiment parler. Mais je pense que c'est là que nous devons réfléchir. Parfois, lorsque nous regardons l'optique d'une décision, comme le choix de la Chine d'investir dans son propre moteur de recherche, il y a beaucoup d'arguments pour expliquer pourquoi cela a pu se produire, mais je pense qu'il y a là quelque chose autour de l'identité et de l'idée que si les personnes qui construisent ces technologies et qui deviennent si omniprésentes, ne sont pas de votre culture et de votre tribu, alors il y a une question d'identité à laquelle il faut répondre.

Dès que vous parlez d'identité, vous parlez de sécurité nationale. Vous parlez ensuite de la façon dont nous nous considérons en tant que communauté et société et de la façon dont nous nous gouvernons et dirigeons. Ce n'est pas le genre de chose que l'on peut externaliser. Vous ne pouvez pas vous rendre dans un pays voisin et dire : « Hé, nous n'avons pas les compétences ou les ressources pour le faire. Pouvez-vous nous prêter quelques personnes? ». Juste à cause de la nature de la technologie. Le plus grand domaine d'incidence, le plus grand domaine de changement et le plus grand domaine d'évolution que je vois se situent autour de ces questions d'identité et de sécurité nationale. Ce sont de grandes et nobles questions. Je pense qu'elles sont encore plus importantes que « la publicité est le moteur d'Internet » ou « mon prochain dentifrice viendra de tel endroit plus vite qu'hier ». Je pense que nous devons garder un œil sur la situation dans son ensemble et saisir l'occasion de parler aux décideurs politiques. Nous devons garder un œil sur ce point, qui constitue un domaine d'intérêt important, en particulier au Canada. Je vais dire qu'on fait partie des gentils. Nous devons garder le pied sur l'accélérateur dans celui-là.

Neil : Shingai, à quoi cela ressemble-t-il, de mettre le pied sur l'accélérateur dans cette perspective? Cela revient un peu à ce que Karen a dit dans ses remarques préliminaires sur les personnes au début, les personnes à la fin, et Gillian, aux commentaires que vous avez faits sur la justice sociale. Shingai, pouvez-vous nous en dire un peu plus sur la manière dont vous pensez aborder ces compromis ou ces grandes questions que vous mettez sur la table autour du pouvoir et de l'influence dans la société?

Shingai : Cela nous ramène à mes questions initiales : les décideurs politiques ont-ils le moyen de voir ces dynamiques, de prendre une décision sur ces dynamiques, de parler de ces technologies et d'avoir une compréhension complète de ce qui se passe?

L'une des principales mesures prises par le Canada pour se donner les moyens d'être prêt est d'investir dans l'intelligence artificielle, d'investir dans une stratégie pan-canadienne en matière d'IA, d'investir dans des instituts comme le Vector Institute, de veiller à ce que nos diplômés aient un foyer au Canada où ils peuvent développer leurs compétences et, en fin de compte, contribuer à cette communauté et à cette société. C'est la première étape pour s'assurer que nous avons les personnes en place. On en revient vraiment au moment où un décideur politique examine une série d'options en matière de sécurité et de défense. A-t-il les outils en main et les compétences, les connaissances nécessaires pour prendre une décision concernant une question de vie ou de mort lorsque nous traitons de sujets de cette nature?

Neil : Très bien. Karen, avez-vous un avis? Je sais que vous devez vous déconnecter dans quelques minutes. Avez-vous des derniers commentaires sur cette question?

Karen : Oui. J'aime vraiment les points que Shingai a soulevés. En tant qu'Américaine gênée et en tant que membre de la communauté de l'IA, je pense que le Canada a un rôle énorme à jouer sur la scène mondiale en trouvant un moyen d'aider à guider la conversation mondiale sur le développement de l'IA d'une manière qui ne soit pas aussi compétitive. Je pense que les États-Unis et la Chine ont largement dominé cet espace et que l'idée d'une course à l'armement en matière d'IA entre ces deux pays a créé de nombreuses incitations perverses dans la mesure où les pays s'efforcent désormais de développer la technologie juste pour eux-mêmes et aussi rapidement que possible, et pas toujours de la manière la plus sûre. Je pense que le Canada a un rôle vraiment unique à jouer en entrant dans la mêlée et en essayant d'apporter un esprit de collaboration, une perspective différente à cette étrange lutte entre superpuissances.

Neil : Merci, Karen. Merci de nous avoir consacré du temps.

 Karen : Merci beaucoup.

 Neil : Gillian, et pour vous? À quoi ressemble le succès lorsqu'il s'agit de gérer certaines de ces dynamiques de pouvoir et vulnérabilités sociétales associées à la croissance de l'IA?

 Gillian : Shingai aborde un point très important, à savoir la façon dont l'IA redessine le paysage du pouvoir. Je pense qu'il faut parler d'ères ici. C'est la fin de l'économie de marché réglementée dans laquelle nous vivons depuis environ 120 ans et dans laquelle les entreprises peuvent faire avancer la recherche du profit, qui est à l'origine de nombreuses formidables innovations et idées nouvelles. Ensuite, nous avons une réglementation efficace qui maintient l'équilibre. Nous avons une réglementation pour des raisons environnementales, pour des raisons de santé et pour des raisons d'équité. C'est ce qui est en train de se briser. C'est ce qui fait avancer les choses du côté des entreprises.
Le pouvoir s'accumule dans ces entreprises technologiques privées, en particulier parce que nous ne suivons pas le rythme sur le plan réglementaire. Notre politique réécrit la structure de nos sociétés. Je pense qu'il y a une dimension géopolitique mondiale, qui est en partie ce que Shingai indique également. De grandes entreprises technologiques décident aujourd'hui de choses telles que les utilisateurs d'une plateforme, les masques qui seront distribués et un grand nombre de décisions sont prises à cet endroit parce que le pouvoir s'y accumule. Je pense que beaucoup de ces entreprises ne veulent pas vraiment de ce pouvoir.

Je pense que nous allons devoir repenser à l'endroit où nous traçons les limites. Je m'inquiète beaucoup du fait que le rythme de développement au sein de nos grandes entreprises technologiques est si rapide et si complexe. Les modèles qu'elles construisent sont tout simplement énormes. Ils ne peuvent pas être reproduits dans le secteur public. Les modèles linguistiques, par exemple. OpenAI contient 175 milliards de paramètres. Je pense que Google en a annoncé un plus tard, Shingai connaît peut-être mieux les chiffres que moi, avec mille milliards de paramètres. Ce n'est tout simplement pas quelque chose que nous pouvons reproduire dans le secteur public et universitaire. Comment allez-vous réglementer cela si vous ne pouvez pas y jeter un œil? Si vous ne pouvez pas travailler avec?

Je fais toujours cette analogie. C'est comme si vous deviez réglementer les constructeurs automobiles, mais que vous ne pouviez pas acheter des voitures et les soumettre à un essai de choc pour comprendre comment elles fonctionnent. Vous êtes entièrement dépendant de la façon dont le constructeur automobile vous informe de leur fonctionnement et de ce qu'elles peuvent ou ne peuvent pas faire. Je pense que c'est un défi majeur et je pense que c'est une perturbation massive au niveau de la base où notre société est décidée. Quelle est l'importance de nos élections? Quelle est l'importance de nos communautés et de nos processus décisionnels? Je pense que c'est la raison pour laquelle nous devons relever le défi de la réglementation, et rapidement.

 Neil : Gillian, qui fait ça bien? Je pense qu'au Canada, nous aimons penser que nous sommes à l'avant-garde. Peut-être qu'autrefois nous étions à l'avant-garde de l'IA. Je ne sais pas si c'est vrai aujourd'hui que nous sommes à l'avant-garde. Voyez-vous d'autres pays réglementer ou prendre d'autres mesures sur l'IA que nous devrions, selon vous, examiner et appliquer ici au Canada?

Gillian : Non. Je pense que nous avons la capacité d'être en avance sur ce sujet. En fait, la plupart des gouvernements du monde ne savent pas ce qu'ils doivent faire. L'Union européenne a fait quelques grands pas dans ce domaine. Le RGPD, ou règlement général sur la protection des données, concerne les données, mais comprend également des éléments tels que des explications sur la prise de décision automatisée. Ils ont annoncé un cadre et une proposition de législation pour la réglementation de l'IA, qui désignerait certains systèmes d'IA comme étant à haut risque et exigerait que les organismes de surveillance nationaux les certifient dans toute une série de dimensions. Je vois cela en Europe. Taïwan pense plus loin sur l'infrastructure numérique. Quelques autres pays réfléchissent à l'avenir de l'infrastructure numérique, mais je pense que personne n'a encore tout compris.

Je ne pense pas qu'il y ait vraiment beaucoup de modèles à imiter, mais je pense que nous savons comment les construire. Notre nouveau projet de loi, C11, contient un élément permettant de certifier les organisations dont les processus de gestion des données répondent aux normes requises par le projet de loi. Je pense que ça ouvre la possibilité d'une évolution. Je suis enthousiaste à l'idée que le Canada puisse suivre cette évolution.

Neil : Shingai, Gillian peint un tableau où la bonne nouvelle est que le Canada n'est pas le dernier. Mais la mauvaise nouvelle, c'est que personne n'a encore trouvé la solution. Cela fait peser une responsabilité sur les entreprises de technologie, sur les développeurs de technologie et sur les équipes qui développent la technologie pour fonctionner. En l'absence de cette réglementation, que pensez-vous de la responsabilité des entreprises technologiques elles-mêmes de s'autoréguler dans ce domaine?

Shingai : Dans un monde idéal, oui. Elles le feraient. Je pense que beaucoup d'entre elles le font. Pour être honnête, j'ai beaucoup d'amis et de collègues qui font partie de ces grandes entreprises technologiques, et ce sont des gens qui, je dirais, partagent les mêmes valeurs et vont dans des directions similaires.

En même temps, il s'agit d'entreprises gigantesques. Ce n'est pas la somme des parties. Un grand navire tourne lentement. Toute décision qu'elles prennent a une incidence incroyable sur le paysage qui les entoure et a parfois des conséquences inattendues. Je ne pense pas que Twitter ait jamais eu l'intention de devenir une plateforme politique pour les chefs d'État, mais dès que cela s'est produit, des questions ont commencé à se poser : si un chef d'État dit quelque chose sur une plateforme, n'est-ce pas de la politique? Où vous situez-vous par rapport à cela? De ce point de vue, nous aimerions que ce soit le cas, mais je pense que ce n'est pas suffisant.

Il s'agit donc de réunir les différentes parties autour de la table et d'avoir des conversations plus constructives sur les détails, afin de pouvoir avoir de grandes conversations sur le fait que, dorénavant, plus aucune politique ne sera élaborée sur les plateformes de médias sociaux. Au-delà, à quoi ressemble la mise en œuvre technique et est-ce réalisable? Nous avons vu cette histoire se dérouler en Australie et il y a différents côtés à cette conversation. Je pense qu'il y a des implications techniques très réelles pour certaines des décisions que nous prenons au niveau de la politique, que même les entreprises technologiques peuvent comprendre ou ne pas comprendre. C'est facile de s'asseoir ici, de pointer du doigt et de dire : « Ils ne vont pas le faire, parce qu'ils courent après les profits ». Ce n'est pas forcément le cas. Je pense qu'il est parfois vraiment difficile d'apporter les types de changements que nous demandons.

Je parlerai plus particulièrement de la confidentialité des données. Si nous examinons les lois et les politiques qui disent que si moi, Shingai, je décide que je ne veux plus faire partie de votre ensemble de données de formation, c'est mon choix. Légalement, la loi peut potentiellement me protéger. Quelles sont les prochaines étapes pour me retirer physiquement de la base de données? Si mon visage a été utilisé pour entraîner un algorithme de reconnaissance faciale, nous ne pouvons pas l'annuler. Nous ne pouvons pas revenir en arrière, même si mon visage n'est plus dans cet ensemble de données. Nous aimerions que ces organisations soient plus responsables. Je pense qu'il y a certainement une pression morale et éthique pour cela, mais cela devra venir de la réglementation.

 Neil : Merci. Nous pouvons prendre quelques questions de Wooclap. Si vous vous êtes connecté en retard, si vous allez sur Wooclap.com et entrez le code VC0302, vous pouvez soumettre vos questions. Jetons un coup d'œil pour voir si nous avons des questions du public. On dirait que oui. Pourquoi ne pas commencer par celle en haut à gauche? Est-ce qu'on a tout? Voilà.

Il semble y avoir une hypothèse quelque peu non vérifiée selon laquelle les êtres humains prennent des décisions qui sont explicables, mais il se peut qu'il y ait un autre éléphant dans la pièce, à savoir que les êtres humains prennent des décisions avec des explications plausibles, mais peut-être non prouvables ou basées sur des excuses. Cela pourrait soulever des questions de responsabilité. Cette affirmation, qui n'est pas vraiment une question, est que le Canada est très bien placé, en raison de notre histoire et de notre contexte des droits de la personne, pour réfléchir à l'IA dans cet espace. Je suppose que vous serez d'accord, Shingai et Gillian, mais laissez-moi voir si vous avez des réactions.

Gillian : Permettez-moi d'y répondre, car j'ai beaucoup réfléchi à cette question de la justification. Je suis préoccupée par le fait que nous parlons maintenant beaucoup d'IA explicable. La façon dont cela est interprété dans le monde de l'informatique est en fait l'explication de ce qui se passe à l'intérieur du modèle – quelles sont les variables qui motivent les décisions. C'est une information précieuse. Cela vous aide à prévoir le système. Cela vous permet de déterminer les facteurs qui influencent la décision.

Je pense qu'il est important de reconnaître que lorsque nous parlons de justifications, je trouve assurément que beaucoup de gens entendent cela comme une rationalisation ex-post. Les gens peuvent dire ce qu'ils veulent, mais c'est en fait ce que disent nos systèmes juridiques et nos systèmes moraux. Nous demandons des comptes et des raisons aux autres, et ensuite nous ne tombons pas raide mort devant eux. Nous vérifions leur plausibilité. Nous vérifions leur cohérence avec d'autres principes. Le fait que nous ayons une règle de ne pas être hypocrites. Si quelqu'un donne sa raison, mais que la semaine dernière il a dit que la raison opposée soutiendrait quelque chose qu'il veut faire, alors nous le disciplinons.

Nos systèmes de raisonnement juridique et de raisonnement moral ont pour but de mettre à l'essai ces raisons. Lorsqu'un juge décide d'un cas et qu'il rédige ses motifs par écrit, nous ne savons pas si ce sont les motifs qui ont réellement traversé l'esprit du juge lorsqu'il a pris sa décision. Vous devez exposer les motifs, et seules les décisions qui sont justifiées par un ensemble cohérent de motifs, tels qu'examinés par le public, la presse, les autres avocats, les parties au litige, sont les bonnes. C'est notre mécanisme de contrôle.

C'est là que je pense que nous devons réfléchir à la façon dont nous construisons des décisions automatisées qui peuvent fournir ces raisons qui sont explicables aux humains, compréhensibles aux humains, et surtout, qui sont tissées dans le tissu de la façon dont nous contrôlons. Non, vous ne pouvez pas fournir cette raison pour cette décision. Ce n'est pas une bonne raison pour la décision. Vous ne pouvez pas dire que vous n'allez pas confirmer nos juges, parce que l'élection est proche et ensuite dire : « mais ça va quand nous le faisons ». C'est ainsi que nous disciplinons notre raisonnement. C'est pourquoi nous donnons des raisons tout le temps et nous les disciplinons. Nous devons y intégrer l'IA.

Neil : Oui. Il m'est difficile de penser à ce à quoi ressemble une cour d'appel pour un algorithme, mais c'est une question fascinante.

Gillian : Oui. Nous n'avons actuellement aucun régime de licence pour les modèles d'apprentissage automatique. Vous ne pouvez pas vendre des médicaments qui n'ont pas été mis à l'essai, mais vous pouvez mettre en place un modèle d'apprentissage automatique sans rien. L'une des choses que nous avons explorées est de savoir s'il existe un moyen de créer une procédure conçue pour qu'un humain puisse être tenu responsable des décisions prises et pour établir que nous ne pouvons pas simplement dire : « La machine l'a fait. Je n'en ai aucune idée. » Nous devons concevoir des processus qui nous permettent de tenir quelqu'un pour responsable des décisions qui sont prises. C'est la seule façon de rester soudés, je pense.

Neil : Shingai, vouliez-vous faire un commentaire à ce sujet?

Shingai : Oui. Je considère toujours la prise de décision automatisée comme un jeu de pile ou face très complexe qui défie les lois de la physique. Cela saute, va de côté, revient, puis finit par prendre une décision et nous devons nous y tenir. Nous n'avons aucun problème à décider du type de pizza que nous voulons avoir en jouant à pile ou face et nous comprenons tous comment cela s'est passé et nous pouvons accepter la décision. Mais si cette pièce se comportait de manière si imprévisible ou si nous ne pouvions pas voir comment cela s'est produit et qu'en fait quelqu'un était responsable de la manière dont cette pièce se comportait, nous voudrions tous savoir comment cette décision a été prise. C'est vraiment la façon de penser à ce jeu de pile ou face incroyablement complexe auquel nous demandons, en fin de compte, de nous aider à prendre une décision. Nous avons besoin d'une explication pour savoir comment ce résultat s'est produit. Sinon, il est dans notre nature de le remettre en question. Pour répondre à la remarque de Gillian, si nous voulons être une sorte de société cohésive, nous aurons besoin de cette décision finale. Nous devrons être capables de faire confiance à la façon dont cette décision a été prise.

Neil : Absolument. L'une des autres questions posées sur Wooclap qui a attiré mon attention, Shingai, est une question sur la manière dont la représentation de l'intelligence artificielle dans la science-fiction a influencé la réflexion des gens sur la science-fiction. Je ne sais pas si vous aimez la science-fiction ou si vous avez des idées à ce sujet.

Shingai : Oui, j'adore Star Trek. S'il s'agissait d'une véritable conférence, nous pourrions certainement en discuter dans des réunions en petits groupes et après la conférence ou la séance. Je vais utiliser l'exemple de Star Trek comme contexte ici. Il y a un épisode où vous avez un médecin à base d'intelligence artificielle qui prend des décisions. À un moment donné, on se demande si le médecin est classé comme un être humain ou un androïde. Si vous regardez la vie de Gene Roddenberry, le créateur de Star Trek, elle était très riche, avec différents milieux et différentes parties.

Je pense que ce que la science-fiction fait différemment, c'est qu'elle part d'une feuille blanche, alors que beaucoup d'entre nous sont limités par ce qui s'est déjà passé et le cadre que nous avons déjà en place. Nous examinons un projet de loi qui ne sera jamais adopté, alors nous ne nous engageons pas dans cette voie. Nous pensons que la publicité n'est pas le bon modèle pour Internet, mais nous n'arrivons même pas à imaginer comment nous pourrions renverser la situation. S'agirait-il d'abonnement? Par quoi pourrions-nous ne serait-ce que commencer? Alors que lorsque vous écrivez une série de science-fiction, vous pouvez inventer des choses et c'est une feuille de papier complètement blanche et vous pouvez jouer les différents scénarios et ensuite nous les voyons. Je pense que le résultat est que nous devons tous être un peu plus créatifs. Imaginer vraiment à partir de zéro que si nous faisions les choses différemment, si nous recommencions, que mettrions-nous dans nos programmes d'enseignement? Ne parlons pas de la difficulté de changer cela, ni du fait que la prochaine révision du programme d'études aura lieu dans 10 ans. Disons simplement que si nous devions recommencer aujourd'hui à zéro, que mettrions-nous dans nos systèmes éducatifs? Je pense que nous pourrions nous rapprocher de la façon dont les films et séries de science-fiction représentent le futur.

Neil : Très bien. Gillian, je ne sais pas si vous aimez la science-fiction ou si vous avez quelque chose à ajouter.

Gillian : Je n'ai jamais été passionnée par la science-fiction, mais depuis que je fréquente un groupe de chercheurs en IA, il est difficile de ne pas l'être. J'ai fini par lire I, Robot il y a quelques années. En particulier, l'histoire intitulée Runaround, qui présente les trois lois de la robotique dont tout le monde a entendu parler. C'est une excellente histoire. Elle a parfaitement saisi ce qui, à mon avis, est si important pour réfléchir à la manière dont nous allons nous assurer que l'IA fait ce que nous voulons qu'elle fasse.

L'idée de I, Robot est que les robots ont été construits en y intégrant les lois – mécaniquement, physiquement, le plus profondément dans leurs cerveaux positroniques – et les règles disent que vous devez protéger, vous devez suivre les ordres d'un humain, et vous devez également essayer de protéger votre existence continue. Le défi de l'histoire survient lorsqu'ils ne parviennent pas à résoudre un problème, parce qu'il s'est produit quelque chose qui bloque la machine parce qu'elle est en parfait équilibre. L'astuce est d'essayer de comprendre comment tromper le cerveau de ce robot.

Il s'agit en fait d'une mauvaise compréhension du fonctionnement de nos systèmes juridiques et normatifs. J'entends par normatifs nos systèmes de normes sociales et de morale, ainsi que les lois et les règlements. C'est-à-dire qu'on ne peut pas simplement aller chercher une liste de toutes les règles et les coller dans les machines. Je pense qu'il s'agit d'une idée fausse dans certains des premiers jours de réflexion sur la façon dont nous allons nous assurer que l'IA fait ce que nous voulons qu'elle fasse. C'est comme si on demandait aux gens ce qu'ils pensent être le bon choix lorsqu'une voiture doit choisir entre tuer le conducteur ou tuer le piéton dans la rue. C'est le problème du trolley qui est partout dans ce domaine. Nous obtenons une liste d'éléments, puis nous les introduisons dans la machine, qui décide, mais ce n'est pas comme ça que nous travaillons.

Nous sommes, en fait, constamment à l'affût, ayant à collaborer les uns avec les autres dans le cadre d'un échange de motifs, d'un échange d'idées, et par l'intermédiaire de nos systèmes juridiques. Nous disposons de systèmes structurés grâce auxquels, par exemple, un processus est maintenant établi dans l'éventualité où nous ne parvenons pas à trouver une solution, et les tribunaux décideront, ultimement, si un comportement en cours de route avait été assez prudent ou pas assez prudent. Tel avantage aurait-il dû être accordé ou non?

C'est pour cette raison que je dis : « écoutez, le problème est que devons, en fait, ne pas penser à la manière dont nous allons intégrer les valeurs dans nos machines. » Nos propres valeurs sont en constante évolution. Elles sont différentes d'une communauté à l'autre. Elles seront différentes dans 15 ans de ce qu'elles sont aujourd'hui ou dans 5 ans. Shingai a ouvert le sujet en abordant la question de l'identité et des différentes cultures à travers le monde. De la même façon dont nous construisons des machines en mesure de naviguer dans un espace physique, nous voulons construire des machines intelligentes capables de naviguer dans notre monde normatif, notre monde de ce qui est bien et de ce qui ne l'est pas. C'est ce que tout humain compétent est capable de faire, et je pense que c'est ce qu'une machine compétente devra aussi pouvoir faire. C'est ma petite touche de science-fiction.

Neil : Bien. Je ferais d'ailleurs l'observation que dans la science-fiction, il est souvent question de l'IA comme d'une intelligence générale ou d'une super intelligence générale, alors que dans un avenir prévisible, du moins, je pense que nous penserons surtout à l'IA comme à un ensemble d'outils dont les humains pourront se servir, des outils qui sont tout simplement très intelligents. De la même façon qu'une calculatrice est très intelligente en arithmétique. C'est l'une des différences, selon moi.

Super. Examinons maintenant certaines de ces questions. Pourquoi ne pas revenir sur la question en haut à droite, qui concerne l'IA en ce qui a trait à l'éthique, à la diversité, à l'inclusion, aux préjugés et la représentation. Je pense que vous avez déjà tous les deux abordé la question. Je vous inviterais toutefois, si vous le voulez bien, à vous pencher davantage sur la question, ou à nous faire part de tout autre point de vue. Quel est, selon vous, le risque que l'IA exacerbe les inégalités sociales? Quelles sont certaines mesures que l'on pourrait prendre pour éviter que cela se produise?

Shingai : Je vais ouvrir le bal. Selon moi, le risque est grand. En fait, à bien des égards, le navire a déjà pris le large. Je vais l'illustrer par une petite anecdote... Chez les personnes qui ont la peau pâle, disons d'une couleur de peau blanche, comment peut-on deviner qu'une enfant a un rhume ou qu'il fait de la fièvre? Il pourrait, par exemple, avoir les joues plus rouges, le dessous du nez rouge, etc. Toutefois, si mon enfant allait dormir chez son ami blanc et qu'il tombait malade, les parents pourraient avoir de la difficulté, le lendemain matin, à reconnaître ces mêmes signes. Ils pourraient donc conclure que les deux enfants sont prêts à aller à l'école, et que mon enfant fait simplement des histoires.

Maintenant, appliquons ce petit exemple au domaine technologique et au développement de toutes les applications d'appareils mobiles que nous utilisons, et voyons les conséquences qui pourraient en résulter. Ce n'est pas que qui que ce soit est raciste. Personne n'a sciemment voulu créer un système injuste, mais par inadvertance, tout simplement en raison du contexte actuel et du manque de sensibilisation aux différences et aux expériences des autres, nous pourrions nous retrouver avec une technologie qui discrimine. Revenons à cet exemple des signes d'un virus chez une personne à la peau foncée. Si vous ne voyez pas mon visage rougir, de rougeur sous mon nez, ou que mes yeux sont gonflés, alors vous allez conclure que Shingai est en pleine forme. C'est vraiment le cœur du problème.

Les personnes qui ont principalement participé à la création de ces technologies appartiennent à un groupe homogène. Ce sur quoi nous devons travailler, c'est la représentation et l'inclusion. Il ne s'agit pas seulement de la représentation dans les ensembles de données au moment de créer les technologies. Il s'agit de la représentation dans les modèles eux-mêmes, car nous commençons souvent par l'application d'hypothèses. On ne sait pas ce qu'on ignore. L'éventail complet des hypothèses possibles qu'une personne peut concevoir dépend de son expérience et de son contexte. En l'absence de représentation au sein du groupe ou dans la création des technologies, des préjugés seront inévitablement inscrits dans les technologies existantes. Je vais m'arrêter sur ce point.

Le fait que le navire ait déjà quitté le port ne constitue pas entièrement une fatalité. Je vois quand même de l'espoir. Je pense qu'il est possible de résoudre ce problème, mais la vitesse à laquelle nous essayons de résoudre ces problèmes et d'assurer une représentation dans les ensembles de données et au sein des équipes de personnes qui développent les technologies n'est pas suffisante. C'est un enjeu pour lequel nous pouvons certainement investir plus de temps et de ressources.

Neil : Shingai, vous faites référence à des préjugés inhérents ou systémiques, mais non intentionnels. Une autre question connexe concerne le système de crédit social de la Chine, qui constitue davantage une partialité intentionnelle. Vous l'avez d'ailleurs mentionné, Gillian, lorsque vous parliez des algorithmes de recherche en Chine et aux États-Unis. Avez-vous des commentaires sur la question de la partialité et de la discrimination? Que peut-on faire en réponse à ce problème? Par ailleurs, que pensez-vous de l'approche chinoise et l'application d'un système de crédit social, et qu'est-ce que cela peut permettre d'accomplir?

Gillian : Oui. Je tiens à dire que la partialité que nous constatons dans nos systèmes algorithmiques actuels ne devrait surprendre personne. C'est le résultat de l'utilisation de sources de données bon marché. Nous assistons à cette explosion de l'IA en raison d'un type particulier d'IA qui repose sur l'apprentissage machine ou les réseaux neuronaux, que l'on doit alimenter d'un grand nombre de données. Une telle IA découvre les modèles structuraux, qu'elle est ensuite en mesure de prédire. Je regarde ça et je me dis toujours : « qui a bien pu penser que c'était la bonne façon de construire un système décisionnel? ». C'est plutôt juste un moyen de reproduire un ensemble de modèles. Et vous savez quoi? L'IA est excellente pour déceler les modèles cachés.

Les éléments systémiques, les préjugés et la discrimination se reflètent et sont filtrés d'une multitude de façons, et il y a toutes sortes de préjugés et de discrimination. C'est parce que nous construisons ces modèles à partir de données bon marché. Voici un ensemble de décisions qui ont déjà été prises et leurs résultats... Voici mes décisions d'embauche au cours des 10 dernières années... Ce que l'on doit réellement faire, c'est automatiser l'humain. L'humain n'apprend pas à prendre la bonne décision d'embauche en regardant simplement ce que l'entreprise a fait dans le passé. Nous commençons plutôt par en apprendre davantage sur les objectifs, puis nous réfléchissons à ce que nous cherchons à accomplir. Nous comprenons l'environnement normatif légal et réglementaire dans lequel nous opérons. Personne ne va s'asseoir et dire « Montrez-moi tout ce qui a déjà été fait. – Vous avez surtout embauché des hommes par le passé... – Parfait, montre-moi juste les hommes. »

Ce n'est pas ainsi que fonctionne le processus décisionnel humain. Avec ce type d'IA, nous n'avons pas du tout automatisé la prise de décision humaine. Nous avons plutôt accompli une chose bizarre, c'est-à-dire que nous avons créé une machine qui reproduira les décisions humaines du passé. Ce n'est pas ainsi que l'on prend des décisions, en particulier dans un domaine où les contraintes normatives et juridiques sont nombreuses. On dira plutôt : « Eh bien, telle décision ou tel aspect ne pourrait pas s'appliquer au cas actuel. » J'ai l'impression que l'on essaie de résoudre un problème qui réside dans la décision d'utiliser ce type particulier d'intelligence artificielle et de technologie d'apprentissage machine pour automatiser les décisions. La façon la plus coûteuse d'y parvenir consisterait à créer un ensemble de données comprenant uniquement l'information voulue choisi par des humains à même de juger et de prendre des décisions pertinentes. C'est comme si on disait : « Voici mille dossiers. Assurez-vous de prendre les bonnes décisions concernant l'information de ces mille dossiers. » Il serait coûteux d'obtenir un tel ensemble de données. Je pense que le problème réside dans l'utilisation de données bon marché. Peut-être devrions-nous dépenser beaucoup plus d'argent pour obtenir les bonnes données au lieu d'essayer de réparer ce qui semble résulter d'une prémisse défectueuse.

Neil : C'est intéressant. Je pense que le secteur public devrait être un environnement riche en cibles pour le type d'ensembles de données dont vous parlez, car nous prenons des décisions administratives tous les jours, qu'il s'agisse d'accorder des subventions, de fournir des services ou de prendre d'autres décisions administratives. On peut supposer que le secteur public dispose de toutes sortes de données de formation en lesquelles il a confiance. Maintenant, je suis certain que ces ensembles de données ne sont pas exempts de préjugés non plus. Il est certain que le biais systémique est difficile à discerner, mais au moins, il ne s'agirait pas du ramassis chaotique de données bon marché que vous avez mentionné. Merci Gillian, c'était fascinant.

Je suggère que l'on revienne aux questions de la plateforme Wooclap pour voir si nous pouvons en aborder d'autres. Nous entamons maintenant la dernière ligne droite. Je vais donc tout de suite afficher les questions de Wooclap. Shingai, Gillian, si vous voulez bien allumer vos micros et choisir toute question à laquelle vous aimeriez répondre. J'ouvre le tout, voilà.

Shingai : J'aimerais aborder la question au sujet des pertes d'emploi. Le fait de remplacer les travailleurs par des ordinateurs dotés d'IA est problématique. Encore ici, selon moi, si on le voyait sous l'angle de la science-fiction où tout recommence à partir d'une page vierge, il en résulterait de plus grandes possibilités de modifier la portée de l'avenir du travail. Mais si l'on considère que les gens occupent actuellement les emplois et qu'ils continueront à les occuper dans un avenir prévisible, toute technologie qui vient menacer ce système sera perçue comme un remplacement des personnes. Je pense que l'idée que l'IA remplacera automatiquement les gens résulte d'un point de vue selon lequel les autres aspects du monde resteront inchangés par rapport au passé; toutefois, on pourrait s'ouvrir à l'idée que le monde est susceptible de changer radicalement et que nous nous retrouvions à faire des métiers dont nous n'avons même pas imaginé la possibilité. Le titre de mon premier poste à l'Institut Vecteur a été inventé. Ce poste n'existait pas avant moi. Personne ne s'était jusqu'alors présenté avec un parcours en sciences des données, en affaires et en éducation. En ayant cette ouverture à l'égard des possibilités de l'avenir, et en nous appliquant réellement à réfléchir à ce à quoi l'avenir pourrait ressembler, rien ne doit nécessairement opposer l'IA et l'humain.

Neil : Très bien. Gillian?

Gillian : Oui. J'aimerais aborder la question suivante : l'IA pourrait-elle être mise en œuvre dans la gestion d'une future pandémie en s'appuyant sur la situation actuelle? Si oui, quelles seraient les difficultés connexes? Je vais commencer par répondre « oui ». Il demeure des questions sur la réglementation à appliquer pour atténuer les effets nocifs. Je pense qu'un important problème résulte du fait que les défis réglementaires actuels bloquent le développement de l'utilisation de l'IA dans des domaines où elle aurait une grande valeur. La pandémie de COVID-19 en est un exemple. C'est en fait une question sur laquelle je me suis penchée tout au long de la pandémie. L'un des grands défis auxquels nous sommes confrontés concerne nos structures de gouvernance des données, c'est-à-dire les règles qui régissent le traitement de l'information et des données. Nos règlements en matière de protection de la vie privée ne sont pas vraiment conçus pour le monde numérique. Ils sont plutôt conçus pour un monde de papier et de registres. Ils ne sont pas conçus pour un environnement qui renferme une si grande quantité de données.

Nous fixons notre attention sur l'idée de l'identification, alors que ce n'est pas vraiment possible dans un monde où les quantités de données sont si massives. Nous avons des protections de la propriété intellectuelle. Nous avons toutes sortes de choses. La plupart de nos données sont isolées les unes des autres et ne sont pas disponibles pour assurer un suivi des éclosions d'une pandémie. J'ai travaillé avec la Fondation Rockefeller sur cette question, et cette dernière aimerait concevoir un système de détection des pandémies. Le grand défi est le suivant : comment mettre en place une structure de gouvernance des données à laquelle les gens seront prêts à faire confiance? D'une certaine façon, les gens seraient prêts à y faire confiance. La plupart d'entre nous n'auront aucun problème à partager nos données pour assurer la surveillance des pandémies. Nous ne voulons tout simplement pas qu'elles soient utilisées pour autre chose. Je le perçois comme un défi de gouvernance. Comment réglementer ces données d'une façon en laquelle nous pourrons tous avoir confiance? Je vous ai donné mes données afin d'aider à combattre la pandémie. Je ne vous ai pas donné mes données pour qu'on me vende des choses ou pour qu'on les donne à la police ou à mes voisins. Comment faire en sorte que les données puissent, à des fins comme la surveillance d'une pandémie, être utilisées beaucoup plus rapidement, plus facilement et en toute confiance? Notre approche actuelle de la réglementation des données ne contribue pas à régler cette question. Jusqu'à présent, nous n'avons pas su profiter de l'IA pour lutter contre la pandémie.

Neil : Wow! Nous pourrions organiser une série de Cafés virtuels entièrement sur ce sujet, mais nous n'avons plus de temps aujourd'hui et je tiens à vous remercier toutes les deux pour cette conversation fascinante. Merci d'avoir répondu à nos questions et merci de nous avoir accordé votre temps d'une façon si généreuse.

Un grand merci également à toutes les personnes qui ont participé aux discussions. Je vous remercie d'avoir posé des questions. Je suis désolé que nous n'ayons pas eu le temps de répondre à plus de questions. Je tiens à vous informer que notre prochain café virtuel aura lieu le 19 mars. Nous allons parler de l'exploration spatiale. Nous recevrons alors deux leaders dans ce domaine : Lindy Elkins-Tanton, de la NASA, et Sarah Gallagher, de l'Agence spatiale canadienne. L'inscription est ouverte et je vous invite à y accéder à partir du site de l'École de la fonction publique du Canada. Merci encore une fois pour cette importante discussion sur l'intelligence artificielle. Nous avons hâte de vous retrouver lors de notre prochain café virtuel du 19 mars. Prenez soin de vous, tout le monde.


En vedette

Appli mobile « La réconciliation : un point de départ »

Téléchargez l'appli « La réconciliation : un point de départ » pour accéder à une mine d'informations sur les peuples autochtones du Canada, des événements historiques et la réconciliation.

Série d'apprentissage sur les questions autochtones

Découvrez l'histoire commune du Canada avec les Premières nations, les Inuits et les Métis.

Ce site web est continuellement mis à jour en fonction de vos commentaires.

Dites-nous ce que vous en pensez.
Sur quelle plateforme porte votre commentaire? (obligatoire)
Date de modification :