Portrait noir et blanc Ben Bogart sur fond noir glitch avec le logo de sporobole et chantier IA en vert fluo
Article

Ben Bogart | Entrevue | Chantier IA 2

J’ai toujours été implicitement intéressé·e par la création de frontières. À la fin des années 1990, j’ai travaillé sur le découpage de fonctions gaussiennes pour créer des formes lisses (courbes implicites). Aussi loin que je me souvienne, j’avais le sentiment qu’il existait une continuité sous-jacente à tout, que les limites des concepts et des objets sont imposées, voire illusoires. Avec le recul, j’ai compris que ce sentiment de continuité constitue le fondement de mon identité de genre (non binaire et agenre), en contradiction avec la binarité de genre, par définition. Il m’aura fallu 25 ans pour surmonter ma transphobie intériorisée et accepter mon genre. J’ai réalisé une œuvre vidéo intitulée FeHo en 1999 ou 2000, inspirée par un livre (dont j’oublie le nom) écrit par une femme transgenre et où il était question des pronoms anglais neutres Ze/Zir. Ainsi, même il y a plus de 20 ans, je possédais le langage et même la confiance nécessaires pour réaliser une telle œuvre, mais sans avoir vraiment réfléchi à mon propre genre. Je pense qu’il y a aussi un lien avec ma neurodivergence : j’ai tendance à comprendre les choses en plusieurs dimensions.

1 Sculptural

Scluptural exploration, late 90s

Tôt dans ma pratique, je me suis intéressé·e à l’interactivité, et je comprends maintenant que c’était pour moi une façon de réarticuler les frontières entre moi, le public et l’œuvre. La spécificité au site m’intéresse en tant que reconfiguration de la frontière qui sépare la personne qui observe du monde qui l’entoure. Je me rappelle m’être demandé pourquoi une œuvre d’art interactive ne devrait réagir qu’aux personnes et non à d’autres animaux (ou aux plantes). J’ai fini par me désintéresser de l’interactivité à cause de son bagage en matière de contrôle, d’attentes du public et de facilité d’utilisation. Je voulais explorer les limites de l’autonomie et de l’autorat par une pratique artistique impliquant la technologie, fortement inspirée par David Rokeby. C’est mon intérêt pour la spécificité au site qui m’a d’abord amené·e à l’apprentissage automatique (AA), que je voyais comme une solution au problème de l’automatisation de la relationnalité et de la spécificité au site : les œuvres d’art médiatique créent leur « propre » relation avec le lieu et le font sans en être ni un simple reflet, ni aléatoires ni indépendantes, mais quelque chose entre les deux ‒ quelque chose qui surprend.

L'image montre un triptyque de cadre carrée en noir et blanc. chaque cadre est composé d'une superposition d'images variées (lieux, hommes) avec en filigrane de l'information textuelle.

Aporia, 2001

Mon intérêt pour le site remonte à mon projet de mémoire de baccalauréat en arts (Oracle, 2003), pour lequel j’avais utilisé des données météorologiques mappées en temps réel (à l’aide d’équations mathématiques chaotiques) sur un texte en plusieurs langues. J’ai commencé à utiliser des caméras pour enregistrer des images de l’environnement autour des œuvres en 2005, grâce à ma première subvention du Conseil des arts du Canada et à ma collaboration avec Donna Marie Vakalis, alors étudiante diplômée en architecture. Pour moi, la création de frontières a toujours été générative. Les frontières qui définissent les concepts, les idées, les classes, les objets, etc., sont dynamiques et situées dans un champ de continuité, voire de potentialité. L’art, tout au long de ma pratique professionnelle, m’est apparu comme une question de sens, et non d’application de celui-ci. J’ai décrit cela comme « faire plus que représenter » et comme un intérêt pour les manières dont les mots, les images et les idées produisent du sens. Derrida m’a certainement inspiré·e dans cette voie.

2 Oracle 2023 1

Oracle , 2003

3 Oracle 2023 Behind the scene

Pour ce qui est de l’apprentissage automatique, il y a deux grandes approches : l’apprentissage supervisé et l’apprentissage non supervisé. Dans les deux cas, l’objectif est le même : modéliser des concepts, comme l’appartenance à une classe. Vous prenez un tas de mesures – la longueur et la largeur des pétales d’iris, disons. Avec l’apprentissage supervisé, vous indiquez au système les mesures correspondant à telle ou telle espèce (en les étiquetant). Lorsqu’il dispose de suffisamment de données, le système devient capable de classer de nouvelles mesures (auxquelles il n’a pas été exposé et qui n’ont pas été étiquetées) comme appartenant à une espèce particulière. C’est essentiellement ce que font les applications de « reconnaissance » de plantes, d’oiseaux, etc. : elles classent les mesures prises par l’appareil photo du téléphone. Bien que j’aie utilisé l’apprentissage supervisé dans quelques projets, je m’intéresse très peu aux outils qui nécessitent l’étiquetage explicite des échantillons de données. Pour une raison similaire, je me suis rendu compte que j’ai un intérêt très limité pour les interfaces d’IA qui répondent à des requêtes, parce qu’elles dépendent de liens prédéterminés et statiques entre les mots et les mesures (c.-à-d. les étiquettes).

L’apprentissage non supervisé (également appelé clustering en anglais) consiste également à catégoriser des mesures, mais sans les étiquettes. Plutôt que d’associer une plage de mesures probables à chaque espèce (l’étiquette), les mesures sont considérées les unes par rapport aux autres (en fonction de leur similarité); un regroupement (cluster) est un ensemble de mesures qui sont plus semblables les unes aux autres qu’à celles d’un autre groupe. Ce qui m’intéresse davantage, c’est la continuité sous-jacente. Chaque mesure est semblable aux autres mesures, jusqu’à un certain point. Les frontières se forment là où l’écart entre les mesures est le plus grand, la taille de cet écart étant un choix. Il n’existe aucune structure de regroupement optimale (un modèle) applicable à tous les jeux de données, chaque algorithme d’apprentissage non supervisé étant une sorte de perspective définie qui impose des contraintes particulières.

Cette tension entre la continuité et l’émergence, le dynamisme et la sélection de frontières est un aspect clé de l’ensemble de mon travail avec l’apprentissage automatique, et il est indissociable de mon identité de genre et de ma neurodivergence. Depuis 2019, j’ai reconsidéré ma conception antérieure de la « subjectivité de la machine » (la subjectivité en tant que création de frontières) à la lumière du réalisme agentiel de Karen Barad. C’est un projet à long terme qui se poursuit.

Je pense que les approches non supervisées (clustering) et supervisées (classification) de l’apprentissage automatique sont intrinsèquement des processus de création de frontières, qui regroupent toujours les mesures en fonction de leur similarité ou de leurs limites conceptuelles (l’espèce, par exemple). Le réalisme agentiel concerne également les processus de création de frontières, celles en particulier qui déterminent ce que l’appareil mesure. Je viens de soumettre un chapitre de livre qui diffracte l’apprentissage automatique à travers le réalisme agentiel, coécrit avec l’un des anciens doctorants de Barad, le Dr Elia Vargas. Pour citer une version préimpression de ce chapitre à propos du réalisme agentiel : « la création de frontières s’effectue par des coupes agentielles, où les frontières et les propriétés des mesures sont déterminées mutuellement avec/au sein de l’appareil. Les objets ne sont pas préexistants » (italiques ajoutés). (Traduction libre). 

Dans le réalisme agentiel, la fixité est une configuration temporaire, les objets et les relations étant dynamiques et en constante reconfiguration. Le cadre d’un « écosystème vivant » consiste en une compréhension particulière qui établit des frontières particulières entre ce que l’on entend par « vivant » et « écosystème ». Le réalisme agentiel n’est pas un modèle écologique, mais si l’on diffracte le concept d’écosystème à travers le réalisme agentiel, il se transforme en un ensemble dynamique de relations permettant la coconstruction de ses membres; la démarcation d’un « membre » par rapport à l’« écosystème » lui-même étant un processus de création de frontières. L’écosystème permet la création de ses membres autant que les membres permettent la création de leur écosystème, l’un ne préexistant pas à l’autre.

Nous (issu·es des cultures coloniales) avons tendance à considérer les modèles comme étant les résultats de mesures selon une causalité claire : le modèle « s’adapte » aux mesures. Dans une telle conception, une frontière est tracée entre le processus de modélisation et la collecte de données, de sorte qu’il n’est pas nécessaire de tenir compte des détails de la collecte dans la modélisation. Les données sont la « vérité de base » et ne sont pas affectées par la modélisation. Le réalisme agentiel remet en cause la fixité d’une telle frontière en rendant possible une compréhension enrichie de l’apprentissage automatique et de ses éventuels effets néfastes : la collecte de données et la modélisation sont coconstruites et non distinctes; elles font partie d’un appareil intégré qui détermine ce qui est important.

C’est pourquoi je ne vois aucune séparation entre l’explosion actuelle de l’« IA » et le capitalisme de surveillance; les big data et big AI sont coconstruites. Les méthodes de collecte de données et de modélisation sont développées en tandem. La réaction actuelle contre l’« IA générative » de la part d’artistes se sentant victimes d’appropriation semble totalement déconnectée du fait que les artistes publient sur les grands médias sociaux depuis 15 ou 20 ans; en utilisant ces plateformes, nous cautionnons la même logique extractiviste et leur donnons presque carte blanche pour faire à peu près n’importe quoi avec ce qui est publié, à perpétuité. Ces artistes, et un large public, perçoivent l’IA comme un objet délimité contre lequel on peut protester; je pense que cela ne fait que détourner l’attention des relations sous-jacentes et déjà bien enracinées entre extractivisme et capitalisme de surveillance. Dans le réalisme agentiel, l’éthique de la collecte de données et celle de la modélisation sont indissociables.

Lorsque j’écris sur cette frontière entre collecte et modélisation, je ne parle pas (uniquement) de ma propre pratique utilisant l’IA, mais aussi de l’apprentissage automatique en général. Mon intégration du réalisme agentiel et de l’apprentissage automatique ne constitue pas un simple exercice théorique pour moi-même, qui toucherait ma seule pratique, mais se veut un antidote aux « recherches » contemporaines qui sont intrinsèquement fondées sur l’extraction et l’exploitation. Considérer les données comme une « vérité de base », un objet délimité que l’on peut extraire de son contexte naturelculturel, favorise une logique extractiviste. Dans une telle logique, les données ont de la valeur et sont valides en elles-mêmes; on peut facilement ignorer le fouillis de détails de leur genèse. Les données ne sont pas sans rappeler le pétrole, le lithium ou le cobalt; il est bien pratique de les considérer comme des objets isolés et de pouvoir ainsi ignorer les systèmes, les conséquences et les dégâts causés par les processus d’extraction qui leur permettent d’exister. Nous pouvons considérer Stable Diffusion, par exemple, comme un objet, et ignorer le travail, la consommation d’électricité, l’absence de considération et de respect à l’égard des personnes qui permettent à ces données d’entraînement d’exister. Lorsque je dis que l’éthique de la collecte de données et la modélisation sont indissociables, j’affirme qu’en utilisant Stable Diffusion, par exemple, on devient complice et on cautionne implicitement ces pratiques de collecte de données.

Ma longue relation avec l’apprentissage automatique a assurément nourri ma réflexion actuelle. Lorsque j’ai commencé à utiliser l’AA, les jeux de données d’entraînement étaient rares, il n’y avait aucun modèle à télécharger et presque pas de cadres ni de bibliothèques. Pour utiliser l’apprentissage automatique dans une pratique, il fallait nécessairement entraîner ses propres modèles, et c’est ainsi que j’ai créé mes propres jeux de données. Comme je l’ai écrit précédemment, c’est mon intérêt pour la spécificité au site qui m’a amené·e à l’apprentissage automatique. La collecte de données fait d’emblée partie intégrante de ma conception et de mon utilisation de l’apprentissage automatique, car mes œuvres résultent souvent d’une collecte d’images dans et de l’environnement à travers un objectif. J’aspire à créer des œuvres où les pratiques de production d’images par des caméras et appareils photo servent de méthode pour créer des relations entre la machine et le monde qui l’entoure, par opposition à une idéologie extractive où les images sont des objets considérés comme indépendants de leurs contextes et valables en eux-mêmes. Chaque image, chaque point de données, etc., situe l’œuvre dans son contexte visuel, et dans un certain nombre de mes travaux, je replace les images générées dans les contextes mêmes à partir desquels leurs sources ont été collectées.

6 A diffraction of past stability and present dynamism 2021 22

A diffraction of past/stability and present/dynamism , 2021-2022

Tout cela s’est un peu complexifié dans mon plus récent projet, Peek & Play Magic Maker, une collaboration réalisée avec Faith Holland et sa fille Hildy, âgée de quatre ans. Dans ce cas, le jeu de données comprend des œuvres, principalement des dessins, des peintures et des collages réalisés par Hildy au cours des trois dernières années. Le processus de collaboration est empreint de considération et de respect pour Hildy; elle n’est pas une « source de données » dont il faut extraire des informations, mais une agente active. Tout au long du processus, Faith a communiqué avec Hildy, qui s’est montrée très protectrice envers ses œuvres, particulièrement sous leur forme physique, en lui demandant ce qu’elle pensait de nos variations, explorations et développements. Bien que je n’aie pas de relation directe avec Hildy (je n’ai rencontré ni Faith ni Hildy en personne), je ressentais les diverses tâches de préparation des données comme autant de gestes d’attention. Le jeu de données n’est pas seulement destiné à Faith et moi, il constituera aussi une archive précieuse pour Hildy lorsqu’elle sera plus âgée. Nous avions prévu d’entraîner nos propres modèles GAN et de diffusion à partir de ces données, mais, faute d’avoir obtenu un financement suffisant, nous avons dû utiliser des outils disponibles sur le marché. Nous avons affiné les modèles de transfert de style sur de petits sous-ensembles des 411 images dans RunwayML afin de créer un ensemble de sorties IA pour l’œuvre finale.

7

Peek & Play Magic Maker, 2024
Échantillon de dessins générés par l’IA à partir du style de Hildy.

Ce projet illustre certains des défis que nous devons relever dans la pratique de l’IA (sur les plans artistique, social et technique). Il y a une tension dans le travail entre l’accent mis sur l’attention, le respect de l’agentivité de Hildy, et les outils. RunwayML et Stable Diffusion (SD) sont étroitement liés; SD est entraîné sur le jeu de données LAION-5B, un jeu d’entraînement en libre accès dont il a été confirmé qu’il comprenait des images de violence sexuelle, y compris des images pédopornographiques. Pour moi, cette tension met en lumière le défi considérable que représente une pratique éthique de l’IA. Former ses propres modèles à partir de zéro est un immense privilège, qui nécessite des connaissances importantes et l’accès à un matériel coûteux; des outils comme RunwayML sont accessibles et relativement abordables. En effet, l’éthique de la collecte de données est indissociable de l’éthique de la modélisation, et cela vaut également pour l’histoire des outils informatiques eux-mêmes, que l’on ne peut dissocier de la recherche militaire. La violence, l’oppression, le colonialisme, l’extractivisme, etc., sont intimement liés à presque tout dans notre monde contemporain. En articulant une relation entre collecte et modélisation, entre logique militaire et informatique, j’espère que nous (collectivement et individuellement) réfléchirons au tracé des frontières qui déterminent ce qui importe, et que nous regarderons au-delà des objets, vers les relations qui leur permettent d’exister. Il ne s’agit pas seulement de regarder, mais d’assumer la responsabilité de l’emplacement des frontières que nous maintenons collectivement et qui déterminent quels sont les êtres et les choses qui ont de l’importance.

Au début des années 2000, je suis tombé sur 24 Hour Psycho (1993) de Douglas Gordon, qui a semé la graine de la possibilité d’utiliser la pratique artistique pour rendre étranger le cinéma familier. À mes yeux, il y a quelque chose d’attirant dans la défamiliarisation de la culture pop, dans le fait de prendre une chose si familière, quasi omniprésente, et de la brouiller (ce qui nous ramène aux frontières et au genre).

Il y a quelques jours, je réfléchissais à l’utilisation du mot « épistémologie » dans mon texte de démarche artistique; l’épistémologie, formellement, c’est l’étude de l’élaboration des connaissances. En tant qu’artiste et créateurice d’images, je considère celles-ci comme des manifestations de la connaissance, et j’ai toujours utilisé la création d’images comme une méthode de questionnement plutôt que d’expression. Pour moi, l’épistémologie devient une étude de la façon dont les images naissent et de leur relation avec les mots. La relationnalité est vraiment la pièce maîtresse de mon processus, dans mon travail d’intégration du réalisme agentiel comme dans mes efforts de décolonisation. Les images ne sont pas tant intéressantes en elles-mêmes que dans leurs manières de refléter un contexte visuel, matériel et culturel plus vaste.

Une grande partie de mon travail des 20 dernières années suit deux trajectoires : le paysage et l’appropriation de la culture occidentale dominante. Dans les deux cas, l’effort est relationnel. Un paysage (in situ ou non) consiste en une articulation des spécificités d’un lieu, ce qu’on trouve déjà dans Resurfacing (2006) et jusque dans des œuvres récentes comme A diffraction of past/stability and present/dynamism (2021-2022). Mon recours à l’appropriation culturelle suit une veine similaire : plutôt que de situer une œuvre dans un contexte géospatial précis, je la situe au sein d’une histoire culturelle dans laquelle je suis déjà intégré. Mon premier choix s’est porté sur 2001 : l’Odyssée de l’espace de Kubrick, car c’est une œuvre si influente et qui pose des questions fondamentales sur l’IA. Par exemple, pour paraphraser HAL9000 et prolonger ses propos (entre crochets) : « Cette mission est trop importante pour que vous [faibles humains] vous mettiez en travers du chemin »; voilà un exemple d’IA en tant qu’optimisation et accentuation implicite de certains critères de réussite plutôt que d’autres (la préservation d’une simple vie humaine, en l’occurrence). Le triptyque de films que j’ai choisi pour la série Watching présente diverses conceptions pop culturelles d’agents artificiels à une époque (entre 1968 et 1982) que connaissent les chercheur·euses en IA travaillant aujourd’hui. Ces films faisaient probablement partie de l’arrière-plan culturel de gens comme Hinton, LeCun et Bengio durant l’enfance, l’adolescence ou le début de la vingtaine.

4 Bogart 1

Resurfacing, 2006

8 Watching and Dreaming 2001 A Space Odyssey version 1 2014

Watching and Dreaming (2001: A Space Odyssey) (version 1), 2014

9 Machines of the Present Consume the Imaginations of the Past 2020 22

Machines of the Present Consume the Imaginations of the Past , 2020-2022

L’ensemble de l’œuvre Machines of the present consume the imaginations of the past s’articulait toujours en relation avec la peinture, et l’appropriation de peintures omniprésentes du canon occidental créait donc, ici aussi, une relationnalité au sein de ce contexte culturel tout en subvertissant son histoire. Les peintures sélectionnées pour cette série l’ont été à la fois en fonction de leur célébrité (comme la Joconde) et de leur appartenance à divers mouvements de création d’images sur un continuum allant du réalisme à l’abstraction, où The Zombie Formalist tient lieu d’abstraction géométrique des années 1960. Dans le cas du paysage comme dans celui de l’appropriation culturelle, l’apprentissage automatique sert à développer une relationnalité au moyen de la décomposition et de la recomposition : le matériel source est déconstruit en fragments, voire en pixels/échantillons individuels, qui deviennent la matière première à partir de laquelle de nouvelles structures sont formées.

10 The Zombie Formalist 2021–

The Zombie Formalist, 2021–

La réalité est une réarticulation (reconfiguration) matérielle et discursive permanente. Elle est constamment faite, défaite et refaite à travers les appareils (la perception, la cognition, les systèmes de mesure, etc., étant tous des appareils) qui permettent une réalité partagée. Le sens, tout comme la réalité, est toujours en train d’être refait. Le réalisme agentiel combine ces deux éléments : la réalité (le matériel) et le sens (le discours) forment un tout intégré. Un appareil crée les propriétés de la réalité tout en déterminant les concepts qui donnent un sens à ces propriétés. La création de sens et la création de réalité sont un seul et même processus relationnel intégré et continu qui n’est jamais figé. 

Cette relation au sens est l’un de mes combats artistiques (et cognitifs). On m’a parfois demandé ce que l’œuvre X « signifie », ou on m’a dit que je ne sais pas de quoi parle X, au fond, ou même que X « traite » peut-être de trop de choses. Pour moi, une œuvre n’est pas tant porteuse de sens qu’une occasion pour le sens d’exister. Bien entendu, il y a mon intention, les outils mathématiques, informatiques et statistiques particuliers que j’utilise dans une œuvre, mais je ne pense pas que les œuvres soient fermées; je veux dire par là qu’il y a une réarticulation permanente de ce qu’elles sont et de leurs « significations ». Une œuvre est un instantané d’un devenir en cours, et non quelque chose d’achevé. Mon travail avec le réalisme agentiel réarticule mon travail d’avant le réalisme agentiel (ou mon travail a-t-il toujours tendu vers le réalisme agentiel, mais je ne disposais tout simplement pas des mots pour m’en rendre compte?). Il y a aussi la question de l’« objet » : L’œuvre d’art est-elle la chose exposée? Le code dans l’ordinateur? Les états énergétiques des minuscules aimants dans le disque dur? La compréhension que j’en ai? L’expérience vécue par le public? L’œuvre d’art est tout cela à la fois, et toutes ces choses sont dynamiques et mutables.

C’est pour cette raison que j’ai tendance à travailler en séries, et que les différentes œuvres se succèdent, d’une manière ou d’une autre, au sein d’une pratique continue. Il y a même eu une période où j’ai créé une deuxième, voire une troisième itération d’une œuvre, en faisant des choix technologiques différents à chaque fois. Prenez Step & Repeat (2003) par rapport à Step & Repeat #2 (2009). Si un jour on organise une grande rétrospective de mon travail, je devrai peut-être reproduire certaines œuvres antérieures parce que la technologie a changé. Une œuvre informatique existe en relation avec des systèmes d’exploitation, des bibliothèques, du matériel informatique, etc., et ces relations doivent être maintenues pour que l’œuvre continue d’exister. Nous avons depuis longtemps cette idée de l’« impermanence » ou de l’éphémérité du numérique, mais je pense que c’est la permanence qui est l’illusion. La construction même du concept de « permanence » requiert un appareil qui intègre des contraintes précises : à partir de quelle quantité de changement peut-on parler de changement, et sur quelle échelle temporelle? La « chose » est-elle toujours la « chose » après qu’on l’a démontée? Remontée un peu différemment? Que l’on prenne du recul ou que l’on y regarde de très près, il apparaît évident que, de soi-même jusqu’à l’existence elle-même, tout est dynamique et en perpétuel changement.

L’avenir est toujours un fantasme. Notre relation à l’IA/AA est une expression du pouvoir en perpétuelle reconfiguration et n’est pas fixée définitivement. L’art, la culture, la technologie et même le langage sont des outils qui depuis toujours nous permettent de nous comprendre nous-mêmes. Les Victoriens imaginaient les esprits comme des machines mécaniques complexes, et beaucoup d’entre nous imaginent aujourd’hui les esprits comme des machines numériques. Cela a du sens dans les cultures coloniales, où nous nous considérons comme des objets indépendants, plutôt que comme des êtres ouverts, pluriels, contextuels et relationnels, une conception présente chez de nombreux peuples autochtones. Dans nos civilisations coloniales, la compréhension passe par la division de nous-mêmes (et de la terre) en objets pouvant être compris isolément. Cette « compréhension » n’est pas neutre, mais au service du contrôle et de l’extraction de valeur. Nous, dans les cultures coloniales, créons l’IA pour extraire de la valeur à partir de données d’apprentissage, un peu comme les mines extraient de la valeur du sol. Le matériau brut (« sans valeur » ou presque) est traité, amalgamé et concentré pour produire une chose dont la valeur est extrêmement élevée, selon une conception très étroite de ce qui est important. Le modèle d’IA n’est pas seulement précieux pour sa rareté, car rare, il l’est encore assurément, mais aussi pour sa capacité à exercer un pouvoir prédictif sur les personnes dont les données sont glanées (c’est-à-dire qu’il a une « utilisation fonctionnelle », comme le pétrole). L’exploitation minière et l’entraînement de grands modèles d’IA sont deux expressions du pouvoir; les deux renforcent le pouvoir en place grâce à l’accumulation de richesses. Cependant, les modèles se distinguent par leur capacité à « prédire » (contraindre et contrôler) l’inconnu/l’autre pour assurer le maintien du statu quo. Peut-être pourrait-on en dire autant du pétrole.

L’intelligence artificielle générale, ou « IAG » (le terme « générale » étant utilisé dans le sens d’« universelle », c’est-à-dire un seul type d’intelligence universelle), représente-t-elle un fantasme colonial de l’agent rationnel individuel et désincarné? Bien entendu. Quelle autre IA aurait-elle bien pu naître de la concentration massive de capital rendue possible dans un contexte colonial extractiviste et capitaliste? Tant que nous nous considérerons comme des individus isolés et des agents rationnels, nos technologies renforceront cette idéologie. L’IA soutiendra des conceptions étroites de l’intelligence, la suprématie blanche et la dévalorisation constante et désinvolte des personnes, des animaux, des plantes et des terres qui constituent la base même de « nos » « civilisations ». Le concept même de civilisation dépend d’une frontière qui exclut les économies, les structures sociales et les cultures qui n’entrent pas dans le moule occidental. En ce moment même, des étudiant·es de tout le pays occupent l’espace pour dénoncer les idéologies oppressives, violentes et extractivistes qui sont à l’origine du génocide à Gaza, où l’IA sert à localiser des cibles « terroristes » au sein de la population civile, pendant qu’en RDC, des enfants travaillent dans les mines à charrier de la roche pour qu’on puisse en extraire quelques-uns des matériaux qui permettent les technologies contemporaines. Voilà pour la technologie sous le colonialisme.

J’ai foi en l’avenir, car certains projets que je suis, comme le programme de recherche Abundant Intelligences, m’inspirent profondément. Je peux co-imaginer un avenir de technologies relationnelles, pluralistes et consensuelles nécessitant la reconstruction, la décolonisation et l’indigénisation des idéologies, des pratiques et des compréhensions, menées par des gens que le colonialisme a marginalisés pendant des siècles, en particulier les personnes autochtones et afrodescendantes. En étant solidaires, nous pouvons bâtir un avenir radicalement inclusif et équitable.

À lire également