Aller à la navigation Aller au contenu

Home

Rouzbeh work

Situated Intelligence: les approches éthiques de l'IA

  • Article
  • Littératie numérique
  • Art et Société
  • PHI
Par  Lucas LaRochelle

Le portail_PHI, une installation participative transfrontalière, est apparu au premier étage du Centre PHI au printemps 2020. Un an plus tard, et malgré les confinements liés à la pandémie de la COVID-19, le programme a accueilli de nombreuses initiatives, créant des échanges culturels, communautaires et artistiques partout dans le monde. La deuxième saison, qui s'est déroulée à l'automne 2020, a donné lieu à des rencontres intimes, sans public. Lucas LaRochelle, l'un des commissaires du portail_PHI, a été à l'origine d'une série de connexions sur l'intelligence artificielle et l'éthique. Il souligne dans cet article l’importance des questions soulevées dans les ateliers et les conversations qu’il a organisés en collaboration avec Rouzbeh Shadpey, Moisés Horta Valenzuela et Suzanne Kite.

L'omniprésence croissante et l'utilisation abusive de l'intelligence artificielle dans les architectures de la vie quotidienne nécessitent une intervention critique pour faire face aux dommages causés par les préjugés intégrés dans ces technologies. L'algorithme de Google Photo qui qualifie les images de Noirs de "gorilles", l'outil de recrutement d'Amazon qui rejette les CV contenant le mot "femmes", ou les préjugés raciaux documentés qui sous-tendent les outils de police prédictive comme PredPol, ne sont que quelques exemples parmi une multitude de preuves qui démontrent clairement les effets désastreux d'un déploiement incontrôlé de l'IA. Les artistes sont en première ligne pour non seulement rendre visible cette violence technologique, mais aussi pour réimaginer radicalement comment nous pourrions coexister de manière plus éthique avec l'intelligence artificielle.


L'automne dernier, j'ai invité des artistes travaillant sur des questions de ce type à participer à l’initiative Situated Intelligence, une programmation explorant l'intersection entre l'intelligence artificielle, la production artistique et l'éthique par le biais d'ateliers techniques et de conversations critiques. La programmation s'est déroulée sur la plateforme immersive du portail_PHI, une installation technologique d'art public reliant en temps réel et de manière intime les communautés de 50 villes, de Milwaukee à Erbil en passant par Bamako. Situated Intelligence a été développé en collaboration avec Kabakoo Academies, une organisation basée à Bamako qui s'efforce de catalyser des futurs durables en intégrant des systèmes de connaissance locaux dans l'enseignement technologique. Des étudiants ayant suivi un cours d'intelligence artificielle chez Académies Kabakoo se sont joints à la conversation via le Bamako_portal, un site jumeau du portail_PHI. Ces échanges ont été facilités par les commissaires Mariam Sylla et Talhata Zourkaneini Toure. Trois artistes invités - Moisés Horta Valenzuela, Suzanne Kite et Rouzbeh Shadpey - se sont joints virtuellement depuis leurs domiciles respectifs à Berlin, Tulasi/Tulsa et Tiohtià:ke/Mooniyang/Montréal, pour partager leurs pratiques et perspectives avec les étudiants de Kabakoo.

Neltokoni In Cuicatl2 credit Moises Horta
Crédit photo : Image de Neltokoni in Cuícatl (2020), par Moisés Horta Valenzuela. Image fournie par l'artiste. Neltokoni in Cuícatl est une œuvre d'art audiovisuelle composée d'un modèle d'apprentissage automatique de génération de texte et d'un modèle de synthèse d'image. Le composant de génération de texte est entraîné sur des poèmes écrits en nahuatl, une langue originaire du Mexique préhispanique, tandis que le composant d'image l’est sur des artefacts culturels de la Méso-Amérique. Par ce travail, Moises Horta Valenzuela réanime des langues et des objets colonisés par l'intelligence artificielle afin de les propulser dans le futur et de remettre en question leur héritage et leur patrimoine.

Forger des avenirs musicaux transculturels en matière d'IA

Le premier atelier était dirigé par Moisés Horta Valenzeula, artiste sonore, technologiste et musicien électronique basé à Berlin et originaire de Tijuana, au Mexique. Moisés Horta Valenzeula travaille dans le domaine de l'informatique musicale, de l'intelligence artificielle, de l'histoire et de la politique des technologies numériques. Son atelier, Forging Transcultural AI Music Futures, a permis aux participants de découvrir des outils de transfert de style audio open source et de discuter de stratégies pour développer des pratiques d'IA décolonisées. Pour Valenzuela, «l'explication la plus claire d'une pratique décoloniale de l'IA est que vous ne servez pas les intérêts de l'institution, vous servez votre communauté».


L’attention portée par Valenzuela sur l'apprentissage automatique est un moyen d'explorer une alternative aux représentations occidentales de l'IA, qui sont traditionnellement centrées sur les thèmes de l'automatisation, de l'optimisation et de la techno-gouvernance dystopique. «Comment penser à l'IA sans tomber dans ces clichés ? Comment y implémenter sa propre culture?» C'est un geste puissant que d'encadrer les tendances occidentalo-centriques et suprématistes blanches des représentations dominantes de l'intelligence artificielle comme un cliché. Ce faisant, Valenzuela vide ces pratiques d'IA de leur pertinence esthétique, exigeant que nous imaginions des systèmes informatiques enracinés dans un savoir culturellement situé.

Nonhuman Futures: imaginer une éthique autochtone pour l'IA

Le deuxième atelier de la série était dirigé par Suzanne Kite, une artiste de performance, plasticienne et compositrice Oglála Lakȟóta basée à Tulasi/Tulsa, dont la pratique étudie et active les épistémologies Lakota contemporaines par la recherche-création, les médias informatiques et la performance. L'atelier de Kite, Nonhuman Futures: Imagining Indigenous Ethics for AI, a permis aux participants de se familiariser avec ses pratiques artistiques et scientifiques et de se livrer à un exercice prospectif de futuring (un processus systématique de réflexion, d'élaboration et de planification de futurs possibles) afin d'inviter les participants à imaginer les nouvelles technologies à travers des protocoles éthiques. En ce qui concerne les origines de son intérêt pour le travail avec l'intelligence artificielle, Kite explique: «Lorsque j'ai commencé à utiliser des outils pour construire des systèmes d'apprentissage automatique, je l'ai fait simultanément avec une exploration de l'épistémologie Lakota. Ma question était la suivante: “existe-t-il des relations et des directives éthiques pour la création de ces systèmes?” “Puis-je m'en inspirer pour créer les miens, ce qui m'amènerait à penser l'IA d'une manière plus tournée vers l'avenir?”»


Ces questions ont récemment été développées dans l'essai «How To Build Anything Ethically», la contribution de Kite à l’Indigenous Protocols and Artificial Intelligence Position Paper. Elle applique les connaissances des Lakotas au développement d'un protocole de construction de matériel informatique à chaque phase de son cycle de vie. L'élément central de ce travail est la reconnaissance du fait qu'une intervention efficace dans la création éthique de l'intelligence artificielle doit toujours commencer par l'examen de la production des composants physiques qui rendent le calcul possible. Kite croit que des pratiques plus éthiques sont possibles, expliquant que «ce sont tous des outils très, très nouveaux, et les problèmes qui les affectent, au sens matériel, sont très faciles à résoudre. Je pense que nous ne sommes pas si loin de la bio-informatique, nous ne sommes pas si loin d'éviter l'exploitation minière, et ces relations avec la terre sont encore réparables.»

165272648 224029329502385 5960271696395868584 n
Crédit photo : Documentation de Íŋyaŋ Iyé (Telling Rock,2019), par Suzanne Kite et Devin Ronnenberg. Cette installation consiste en une série de tresses intégrées à une technologie d'apprentissage automatique, qui construisent un paysage sonore réactif en réponse à la manipulation physique des cheveux/objets sonores par le spectateur. Íŋyaŋ Iyé met en évidence les ontologies Oglala Lakota des qualités agentielles des roches et des minéraux (qui constituent la base du matériel informatique) en tant qu'agents non-humains capables de communiquer. Photo: Bemis Center of Contemporary Art.

Ces voix sans souffle: penser la voix de l'IA

Le dernier atelier de la saison était dirigé par Rouzbeh Shadpey, un artiste transdisciplinaire basé à Tiohtià:ke/Mooniyang/Montréal, dont le travail actuel se concentre sur le corps invisiblement malade, les seuils de non-existence et la voix de l'IA. Son atelier, Those Voices Without Breath: Thinking the AI Voice, a commencé par déballer l'eurocentrisme du canon des études sonores et s'est poursuivi par une discussion sur l'éthique des clones vocaux produits par l'IA. Selon Shadpey, «la métaphore de la voix comme source d'action est terriblement trompeuse. L'utilisation de l'IA pour créer une réplique parfaite défait effectivement le récit selon lequel la voix est le siège du pouvoir et de la gouvernance.»


La montée en puissance du deepfake, toujours plus convaincant, a mis en évidence la diminution de la capacité à attribuer, de manière concrète, une valeur de vérité au matériel rendu numériquement. La prolifération d'outils de clonage vocal alimentés par l'IA, comme celui développé par la startup montréalaise Lyrebird, a soulevé des questions sur les ramifications de cette technologie dans la production des fake news. Consciente de cette utilisation abusive, la déclaration éthique de Lyrebird se termine par une sorte de provocation: «nous voulons attirer l'attention sur le manque de preuves que les enregistrements audio pourraient représenter dans un avenir proche.» Le travail de Shadpey interroge ces futurs possibles avec une précision particulière, visant les enjeux éthiques dans l'octroi d'un pouvoir de persuasion à la parole artificielle, alors que de nombreuses voix réelles et incarnées continuent d'être réduites au silence. «Ce qui est dommageable dans ce discours, c'est qu'il déplace encore plus toutes les voix, humaines et non-humaines, qui n'ont jamais compté».

Visions futures de l'IA éthique

Tout en travaillant avec des moyens esthétiques, ces artistes partagent un regard résolument tourné vers la remise en question des implications matérielles de l'utilisation abusive des technologies d'apprentissage automatique. Kite pense notamment au récent vote unanime de la commission de police de Los Angeles, qui a autorisé la police à utiliser la technologie de reconnaissance faciale, malgré les nombreuses preuves que les ensembles de données utilisés pour former ces algorithmes sont biaisés sur le plan racial et ciblent de manière disproportionnée les communautés racisées, Noires en particulier. «Cela conduira sans aucun doute à la mort réelle, matérielle, des êtres humains», avertit Kite. «J'espère que mon travail, qui est à l'intersection de l'IA, de la technologie, de l'art et de l'éthique, peut clarifier le fait que l'IA autochtone signifie la réparation de ces relations (humaines/non-humaines). J'espère que mon travail contribuera à l'abolition de l'utilisation de ces outils pour policer les êtres humains.»

L'abolition est un geste nécessaire à mesure que s'accumulent les preuves de la logique suprémaciste blanche qui est sous-entendue dans la conception des systèmes d'IA. Mais comme le souligne Ruha Benjamin, auteur de "Race After Technology : Abolitionist Tools for the New Jim Code": «Les appels à l'abolition ne consistent jamais simplement à mettre fin à des systèmes nuisibles, mais aussi à en envisager de nouveaux.» Il existe des possibilités de futurs plus justes qui deviennent plus claires et plus tangibles à chaque fissure faite dans le système existant. «L'apprentissage automatique est manifestement un outil puissant lorsqu'il est utilisé de manière critique, déclare Shadpey. Il peut fonctionner comme un miroir de nous-mêmes et mettre à nu les préjugés que nous inculquons dans diverses choses. Pour moi, c'est donc là que réside l'intérêt. C'est là qu'est le pouvoir».

Par leur travail, des artistes comme Shadpey, Kite et Valenzuela jettent les bases à partir desquelles nous pourrions mieux imaginer, construire et coexister dans un monde de plus en plus imbriqué dans l'intelligence artificielle. En mettant l'accent sur les intérêts de la communauté, en élaborant des cadres éthiques ancrés dans les systèmes de connaissances autochtones et en mettant au jour les récits qui sous-tendent des préjugés préjudiciables, ils prouvent que des avenirs plus éthiques en matière d'IA sont non seulement possibles, mais qu'ils émergent déjà dans le présent. «Je veux faire de l'art qui aborde certaines de ces questions de la Bonne Manière, en amont des choses». Kite partage: «Nous ne devrions pas avoir à passer tout notre temps à attraper la mauvaise utilisation des outils d'IA. C'est trop tard. Nous devons créer des outils de la Bonne Manière.»

Les artistes sont présents est disponible en streaming dans son intégralité. La série de vidéos invite à découvrir une facette du portail_PHI à travers le regard des artistes ayant participé à la saison 2. Un grand merci à tous les artistes locaux et internationaux qui ont permis à leur créativité, vulnérabilité et lumière de circuler à travers le portail_PHI en 2020.

PHI texture iridescent

À propos de l'auteur.e

Lucas LaRochelle est un.e designer, artiste et chercheur.se multidisciplinaire dont le travail porte sur les cultures numériques queer et trans, l'archivage communautaire et les médias co-créatifs. Ile est fondateur.trice de Queering The Map, une plateforme de contre-cartographie généréé par la communauté qui archive numériquement l'expérience LGBTQ2IA+ en relation avec l'espace physique.

Infolettre

Un pour les nouvelles
Deux pour la culture

Dans cet article

Explorer

Tout explorer Tout explorer