La vie privée et l’humanité à la croisée des chemins

Dans la vie, il y a des événements d’une telle magnitude qu’ils nous rappellent notre fragilité en tant qu’êtres humains, et aussi celle de notre espèce tout entière. J’ai éprouvé cette sensation pour la première fois au lendemain chaotique du 11 septembre, alors que je craignais que d’éventuelles représailles nucléaires ne mettent fin à notre existence. Je l’ai éprouvée à nouveau lorsque le rapport du Groupe d’experts intergouvernemental sur l’évolution du climat des Nations Unies nous a mis en garde qu’il restait très peu de temps pour sauver notre planète de la destruction. Et je l’ai éprouvée plus récemment lors de l’invasion de l’Ukraine par la Russie, une horreur qui suscite la crainte d’une troisième guerre mondiale.

Le livre Homo Deus d’Yuval Noah Harari a été la seule autre chose qui m’a inspiré un tel fatalisme quant à l’avenir de la race humaine. Ce futurologue nous prévient qu’il faut nous préparer à la véritable révolution, celle qui se produira lorsque la technologie de l’information se mêlera à la biotechnologie et changera à jamais l’espèce humaine. Ce livre a soulevé en moi de nombreuses questions complexes et existentielles sur le genre d’avenir que nous sommes en train de façonner.

À quel moment l’intelligence artificielle ira-t-elle au-delà de la prédiction du comportement humain avec une précision quasi parfaite, pour influencer ce comportement d’une manière qui met en péril notre capacité à agir et à décider de ce qui nous convient le mieux?

Les algorithmes qui prédisent qui a le plus ou le moins de chances de réussir à l’école vont-ils dicter les parcours éducatifs que nous réservons à nos enfants ou les emplois qu’ils sont susceptibles d’obtenir, renversant ainsi tous les progrès réalisés au fil des décennies pour fournir une éducation universelle et assurer l’égalité des chances?

Nos élections libres et démocratiques seront-elles influencées par des messages microciblés basés sur des déductions algorithmiques de nos orientations politiques, menaçant notre droit chèrement acquis de voter selon notre conscience et dans le secret des urnes?

Des algorithmes et neurocapteurs conçus pour prédire qui est le plus susceptible de commettre des crimes (ou de récidiver) en fonction de certains facteurs sociodémographiques engendreront-ils une prophétie autoréalisatrice, sapant notre liberté de surmonter les obstacles qui se dressent devant nous pour devenir la personne que nous voulons être?

Les probabilités concernant notre mortalité et notre morbidité basées sur notre patrimoine génomique, non seulement tel qu’il est, mais aussi tel qu’il pourrait être modifié et remanié, porteront-elles atteinte à notre droit de ne pas savoir ce que l’avenir nous réserve et nous priveront-elles de notre capacité à vivre pleinement et librement notre vie, sans avoir le sentiment d’être voué à un sort auquel on ne peut échapper?

Quand je parle de ce genre de choses avec mes enfants, ils ne semblent pas être gênés de recevoir des publicités qui leur sont pertinentes, des suggestions de films qu’ils sont plus susceptibles d’apprécier ou des listes de musique personnalisées correspondant à leurs goûts. Mais il y a des choses plus insidieuses qui m’inquiètent. Qu’en est-il de leur fil d’actualité? Ont-ils accès aux informations complètes et impartiales dont ils ont besoin pour connaître les événements importants qui se passent autour d’eux? Ou leur vision du monde est-elle subtilement façonnée par les articles sélectionnés qu’ils voient apparaître sur leurs plateformes de médias sociaux? La vérité qu’on leur sert en ligne est-elle différente de la vôtre et de la mienne?

Au fond, la plupart d’entre nous savent que la vie telle que nous la connaissons changera pour toujours. L’adoption rapide des technologies de l’information, combinée aux biotechnologies, nous a laissé un héritage que nous n’avons pas encore totalement saisi. Un héritage qui remettra en question comme jamais auparavant notre droit à la vie privée et, d’une certaine manière, notre droit à l’humanité. À l’instar du changement climatique, il ne s’agit pas de questions lointaines que nous pourrons régler au cours des prochaines décennies; nous devons reconnaître leur caractère immédiat et trouver des solutions dès maintenant.

Des voix se sont élevées ces dernières années pour réclamer la réglementation de la conception et de l’utilisation des algorithmes, et le Canada a réagi en proposant la Loi sur l’intelligence artificielle et les données (LIAD), qui s’insère dans le train de réformes sur la protection des données contenues dans le projet de loi C-27. Si elle était adoptée, la LIAD régirait certaines activités liées aux systèmes d’intelligence artificielle et interdirait les gestes susceptibles de causer des préjudices importants aux particuliers ou à leurs intérêts. De nombreuses particularités restent à définir dans les règlements, mais la LIAD impose une série d’obligations et de responsabilités, dont celle d’évaluer l’incidence d’un système d’intelligence artificielle et d’établir des mesures visant à cerner et à atténuer les risques de préjudice ou de résultats biaisés que pourrait entraîner l’utilisation de ce système. La LIAD exige également que soit contrôlé le respect de ces mesures et prévoit des obligations importantes en matière de transparence et de rapports. De plus, la LIAD crée un tout nouveau régime de responsabilité comprenant un mécanisme de surveillance ministérielle et de vérification, ainsi que des pénalités pécuniaires en cas d’infraction, selon des modalités qui restent à définir par règlement.

Je laisse à d’autres le soin de commenter le projet de loi fédéral, mais je ferai quelques observations sur ses répercussions pour la population ontarienne. Avant tout, la LIAD s’appliquerait uniquement aux entreprises sous réglementation fédérale aux fins des échanges et du commerce internationaux ou interprovinciaux. Elle ne s’appliquerait pas aux gouvernements provinciaux, aux institutions publiques provinciales ni aux entreprises sous réglementation provinciale exploitées en Ontario, laissant des lacunes importantes dans notre paysage réglementaire.

Le terrain est prêt pour que la province la plus grande du Canada comble ces lacunes dans l’intérêt des Ontariennes et des Ontariens. L’Ontario peut envisager une approche harmonisée qui régirait l’utilisation des systèmes d’intelligence artificielle et la collecte des données qui les alimentent. Le gouvernement précédent s’était lancé sur cette voie dans le cadre de sa Stratégie pour le numérique et les données en élaborant deux documents de discussion très sérieux au sujet desquels il a mené de grandes consultations : Le cadre de l’intelligence artificielle (IA) de confiance de l’Ontario et Modernisation de la protection de la vie privée en Ontario. Maintenant que le gouvernement récemment élu a entrepris son nouveau mandat, il est temps de reprendre la plume et de poursuivre ce travail d’une importance capitale, surtout maintenant que nous avons une meilleure idée de la perspective fédérale.

En tant que pôle majeur d’innovation en IA au pays, l’Ontario a l’occasion unique de jouer un rôle de premier plan dans ce domaine, notamment par les moyens suivants :

  • soutenir la recherche qui examine les effets du profilage des données, de l’exposition aux médias sociaux et de la prédiction algorithmique sur le développement psychologique sain des personnes, en particulier des enfants et des jeunes, et en assurer l’application;
  • élargir la définition des préjudices causés par les systèmes d’IA pour inclure les préjudices collectifs, et non seulement les préjudices physiques ou psychologiques, les dommages aux biens et les pertes économiques subis par un particulier;
  • adopter une approche plus large des droits de la personne qui va au-delà des pouvoirs constitutionnels fédéraux se limitant à la réglementation des activités commerciales ou criminelles;
  • élaborer une approche plus intégrée et cohérente axée sur l’interopérabilité dans l’ensemble des secteurs public, privé et sans but lucratif de l’Ontario, y compris dans les domaines de la santé et du maintien de l’ordre;
  • assujettir les évaluations de l’incidence algorithmique à un cadre réfléchi, fondé sur des principes, qui établit un équilibre entre les valeurs éthiques fondamentales que sont l’autonomie, la dignité et l’intégrité des personnes ou des groupes, les intérêts plus larges de la société et des considérations liées au bien public.

Alors que nous nous préparons à l’établissement d’un éventuel régime de réglementation, nous ne devons pas sous-estimer à quel point il sera difficile d’évaluer précisément l’incidence des systèmes d’intelligence artificielle. L’Ontario doit intensifier ses consultations, en particulier auprès des communautés et groupes marginalisés qui risquent d’être les plus touchés par les décisions algorithmiques. Il doit également accroître ses investissements en vue de développer les capacités requises pour réaliser ces évaluations multifactorielles, notamment par le biais de recherches interdisciplinaires sur les incidences éthiques, juridiques et sociales des systèmes d’intelligence artificielle, de méthodologies prospectives pour prévoir ces incidences et y réagir et de lignes directrices concrètes pour aider les institutions et les organisations à réaliser ces évaluations. Surtout, l’Ontario doit faire preuve d’un leadership exemplaire dans la façon dont lui-même recourt à l’intelligence artificielle pour améliorer la prestation des services et des programmes gouvernementaux, en respectant des limites claires et transparentes que les Ontariennes et Ontariens jugent acceptables sur le plan social et éthique.

Les systèmes algorithmiques sont de puissants outils de mesure, de gestion et d’optimisation. Mais à quelles fins et pour obtenir quels avantages sociaux sont-ils utilisés? Il est plus important que jamais pour nous de comprendre et de déterminer démocratiquement les raisons pour lesquelles nos renseignements personnels et notre vie publique numérique sont optimisés.

Le Principe de la septième génération de la confédération Haudenosaunee nous apprend à réfléchir à autre chose qu’à nos préoccupations immédiates, à ce qui se passe ici et maintenant. Il nous rappelle notre présence éphémère sur cette terre et notre responsabilité d’assurer un avenir durable en réfléchissant aux conséquences de nos décisions sur la septième génération qui nous suivra. Pour bon nombre d’entre nous, il est déjà difficile de planifier à long terme sur trois à cinq ans, et ce l’est encore plus de réfléchir aux conséquences sociales plus larges de nos gestes d’aujourd’hui sur les sept générations qui suivront. Mais c’est pourquoi nous devons apprendre et nous améliorer si nous avons le moindre espoir de préserver le monde dans lequel nous vivons et notre capacité à décider du destin de l’espèce humaine.

Patricia

This post is also available in: Anglais

Contact média

Demandes des médias et demandes d’entrevue. Pour que nous puissions vous répondre dans les plus brefs délais, veuillez nous fournir par courriel ou par téléphone des détails sur votre demande, p. ex., organisme, sujet et échéance.
Téléphone: 416-326-3965

Médias Sociaux

Le CIPVP maintient des chaînes sur Twitter, YouTube et Linkedin afin de communiquer avec les Ontariens et les autres personnes intéressées par la vie privée, l'accès et les questions connexes.