Cahiers de recherche

Penser les alternatives à l’Intelligence Artificielle capitaliste : « l’IA aborigène » en Australie

La rubrique Cahiers de recherche propose à de jeunes chercheurs de présenter leurs résultats, pensées et découvertes, sous une forme qu’ils n’ont pas forcément la possibilité de publier ailleurs.

En Australie, des projets menés par et pour les populations aborigènes1 locales utilisent l’Intelligence Artificielle pour faire perpétuer à la fois leur culture et la soutenabilité des terres sacrées. Sans exotiser ces projets ni en faire des solutions idéales, l’idée de l’émancipation des populations qui ont subi le capitalisme de plein fouet et confisquent désormais la production des savoirs technologiques aux oligopoles peut inspirer une forme de résistance au capitalisme qui est à la fois économique, politique et culturelle. Il s’agira donc de poser la question de ce que ces perspectives ont de généralisables, par-delà le « cas aborigène. »

Les dangers de l’IA capitaliste – comment l’IA favorise les pouvoirs dominants et permet la continuité du capitalisme – ont été remarquablement bien documentés ces dernières années. Par exemple, dans son livre Contre-atlas de l’intelligence artificielle, Kate Crawford dresse une topographie des chaînes de production de l’IA – depuis l’extraction de minerais, les déchets toxiques, la consommation d’énergies non-renouvelables jusqu’à l’exploitation des travailleurs pour perfectionner le système d’apprentissage automatique. L’autrice explique que l’IA n’est « ni intelligente, ni artificielle » car la structure industrielle globale qui la produit est construite sur l’exploitation des travailleurs et la dégradation de la nature. Kate Crawford illustre son propos à travers un projet artistique : une « carte anatomique de travail humain, de données et de ressources planétaires » de l’enceinte connectée d’Amazon, « Echo » (cf. Fig.1). On pourrait aussi citer le livre de Virginia Eubanks, Automatiser les inégalités, qui décrit la façon dont l’IA non seulement reproduit des inégalités racistes, sexistes, ou classistes, mais les automatisent également, les rendant ainsi encore plus opaques et encore moins contestables. L’âge du capitalisme de surveillance de Shoshana Zuboff en est un autre exemple.

Rendre visible et dénoncer la manière dont l’IA renforce les intérêts dominants est nécessaire. Néanmoins, on pourrait aussi décider de changer la direction de notre regard. En effet, la critique consiste non seulement à contester les pratiques de domination (des humains, de la nature), mais aussi à imaginer les alternatives futures. La science-fiction – qu’elle soit utopique ou dystopique – nous aide à imaginer des futurs possibles. Cependant, certaines tentatives bien concrètes pourraient également ouvrir des possibilités et nous inspirer. Deux projets d’« IA aborigène » en particulier – le projet « Healthy Country AI » et le projet « Tracker Data » – pourraient nous aider à penser la subversion à la fois politique, culturelle, et locale de l’IA capitaliste. Chaque cas est particulier : le premier vise à aider le peuple Bininj à gérer des terres qui ont une dimension sacrée pour eux ; le second consiste en une démarche artistique qui matérialise la généalogie du peuple Adnyamathanha et redonne un sens à la digitalisation.

Il ne s’agit pas de présenter ces projets comme des solutions idéales et exotiques. Il s’agit en revanche de comprendre que ces deux projets réfutent deux idées dominantes sur la technologie. Premièrement, contre l’idée que les technologies sont neutres et apolitiques, ces projets illustrent l’aspect culturel et la fluidité des technologies. Deuxièmement, contre l’idée que l’ingénierie est réservée à une certaine élite, et contre l’automatisation des tâches décidées à l’avance et l’aliénation des travailleurs, ils illustrent l’importance et la possibilité d’ouvrir les technologies à la participation active des populations locales. Il s’agira donc de réfléchir au type d’alternatives que ces démarches ouvrent, et la mesure dans laquelle ces alternatives sont généralisables.

Figure 1 : “Anatomy of an AI system”, Kate Crawford & Vladan Joler (2018). Cette cartographie illustre la chaîne de production de l’enceinte « Echo » d’Amazon, depuis l’extraction des minerais et la surveillance des mouvements des travailleurs jusqu’à l’élaboration du produit fini, en passant par l’élaboration des logiciels, l’entraînement des algorithmes, etc.

« Healthy Country AI »

Le projet « Healthy Country AI » est un projet mené par l’Alliance Aborigène Nord-Australienne pour la Gestion de la Terre et de la Mer (NAILSMA)2 et l’Organisation Fédérale pour la Recherche Scientifique et Industrielle (CSIRO), un organisme du gouvernement australien. Le projet consiste à promouvoir les approches aborigènes de l’IA et des technologies du numérique. Le directeur du NAILSMA précise : « nous ne voulons pas que ces nouvelles technologies remplacent la connexion des gens avec leur Pays [Country]3, la meilleure manière de s’occuper du pays, c’est d’y être. Nous avons besoin que ces nouvelles technologies soutiennent et ajoutent de la valeur à cette idée, pas qu’elles la remplace.»4

Notons que pour les peuples aborigènes en général, le changement climatique est une menace existentielle non seulement parce qu’il menace la satisfaction des besoins primaires (manger, boire, survivre) mais aussi dans la mesure où des arbres ou des rivières peuvent être des lieux sacrés. La dégradation de l’environnement est donc aussi la dégradation d’un rapport au sacré, et donc d’un rapport existentiel. L’émancipation des cultures aborigènes est ici doublement anti-capitaliste : d’abord car le capitalisme n’a cessé d’acculturer les peuples aborigènes, que ce soit en Amérique ou en Australie, en imposant des lois étrangères à un monde qui préexistait, et ensuite car le capitalisme n’a cessé de détruire un environnement qui leur est sacré. La question d’une IA anticapitaliste est donc celle d’une IA qui confisque le contrôle des technologies par les oligopoles et redistribue la production vers celles et ceux qui ont subi et continuent de subir les effets néfastes du capitalisme.

En pratique, le projet consiste à mettre en connexion des ingénieurs et des organisations aborigènes locales pour aider ces dernières à gérer leur territoire en régulant les plantes invasives via les nouvelles technologies. Le projet « utilise des drones pour inspecter le terrain, des algorithmes d’apprentissage automatique pour classifier les images aériennes et des technologies du cloud [cloud technology] pour visualiser les cartes d’infection »5. Je ne sais pas s’il y avait des personnes aborigènes parmi les ingénieurs. En tout cas, les populations locales ont pu activement participer à l’élaboration du projet, de la justification de l’existence même du projet (a-t-on vraiment besoin de ces technologies ?), à l’application du projet en passant par la conception des algorithmes.

Figure 2 : deux propriétaires traditionnels Bininj utilisant un tableau de bord interactif pour comparer la surface des plantes avant et après une décision de gestion.

En effet, cette participation était cruciale pour garantir non seulement la légitimité du projet auprès des personnes concernées (les « Bininj Traditional Owners » et « Indigenous rangers »), mais également afin de garantir que le savoir traditionnel de la culture en question façonnait la technologie elle-même plutôt que l’inverse. Par exemple, le calendrier Bininj et ses six saisons a été intégré dans l’algorithme d’apprentissage automatique pour classifier les images prises par drone. Si le capitalisme impose sa cosmologie absurde sur le reste du monde via la standardisation du calendrier occidental dit grégorien, alors contester ce dernier est aussi une forme de résistance contre le capitalisme, en particulier lorsqu’il existe un autre calendrier qui, lui, est adapté au climat local et à ses « changements subtils de ciels, de pluies, de plantes et d’animaux ». Enfin, les « rangers » avaient accès à un tableau de bord interactif qui simulait les conséquences possibles de scénarios entre lesquels ils hésitaient.

« Tracker Data »6

Le second projet est parti de la réalisation par un footballeur australien aborigène, Adam Goodes, du système mis en place par son club, impliquant satellites et traceurs, pour digitaliser les moindres détails de son corps et de ses mouvements. Le but était d’optimiser sa performance en utilisant ces données pour entraîner le joueur à mieux percevoir son rapport au temps, à l’espace, et à la structure du jeu. Nous retrouvons encore un principe que nous connaissons bien : la transformation capitaliste du sport, c’est-à-dire l’optimisation du travail sportif pour maximiser les profits.

En collaboration avec des universitaires et des artistes, le projet « Tracker Data » consistait à subvertir l’instrumentalisation et la marchandisation du corps d’Adam Goodes par les nouvelles technologies en utilisant ces dernières pour récréer, ou re-symboliser, son rapport au monde. En d’autres termes, il s’agissait de se ré-accaparer un savoir-faire pour permettre à Adam Goodes de (re)créer une expérience qui, cette fois, ferait sens, spirituellement et corporellement.

En pratique, cela signifiait créer une représentation artistique d’une expérience sacrée. Ici, l’apprentissage automatique était utilisé pour modéliser des données géophysiques et créer des sons et des images qui puissent matérialiser la connexion entre le Pays sacré et le système de parenté auquel Adam Goodes appartient. En effet, « l’arbre généalogique » dans la culture aborigène d’Adam Goodes (« the Adnyamathanha kinship system ») comporte deux « groupes sanguins » (Moieties) : le Vent du Nord (Arraru), duquel le joueur descend, et le Vent du Sud (Mathari). De plus, il existe un arbre particulier (Wirra), vieux d’au moins 500 ans, qui pousse sur le Pays, là où ont vécu les ancêtres d’Adam Goodes, et symbolise ainsi son lien avec eux et avec la terre.

L’œuvre finale était une combinaison de sons et de nuages de points sur un grand écran qui représentait à la fois l’arbre (Wirra) et les deux Vents (Arraru et Mathari), et au pied duquel le sportif s’asseyait (cf. Fig. 3). Lors d’un séminaire de présentation du projet auquel j’ai assisté, Adam Goodes n’en parlait pas seulement comme un objet d’art, mais comme une expérience à part entière qu’il avait vécue, et qui faisait réellement vivre la culture et les formes complexes de savoirs de la culture aborigène à laquelle il appartient.

Figure 3 : Adam Goodes, devant l’arbre (Wirra) de son Pays et les formes et les sons des Vents de son arbre généalogique (Arraru et Mathari).

Réflexions

Ces exemples ne sont pas idéaux. D’abord parce qu’ils ne sont pas complètement en-dehors de l’IA capitaliste dont je parlais en introduction. Par exemple, un des GAFAM, Microsoft, est partenaire du projet Healthy Country AI. La puissance computationnelle requise pour entraîner les algorithmes est sûrement énergivore. Néanmoins, notons que ces projets représentent tout de même une alternative au système des GAFAM qui monopolisent les savoir-faire et les infrastructures computationnelles, et exploitent les travailleurs pour construire des IA dont l’utilité sera décidée par un petit nombre (ex : expliquer des blagues, susciter l’espoir absurde de créer ce que l’on croit être une « conscience » artificielle, etc.). De plus, la définition instrumentale de l’intelligence comme « capacité à résoudre des problèmes » est ici contestée, et remplacée par une définition plus spirituelle, existentielle, productrice de raisons de vivre.

Ensuite, ces exemples ne sont pas idéaux parce qu’ils ne sont pas directement généralisables ; ils sont propres à un contexte particulier, une localité et une ontologie particulières7. Néanmoins, il serait tout aussi problématique d’exotiser ces projets comme étant tout à fait autres, étrangers à nous, en France. Ne désire-t-on pas, nous aussi, produire des savoirs et des savoir-faire qui réfutent le capitalisme à la fois dans son économie – en confisquant le monopole de la production d’IA par les grandes entreprises et revitalisant les savoir-faire locaux – et dans sa philosophie de destruction de la nature et d’instrumentalisation du travailleur ? La question de savoir si on peut « démanteler la maison du maître avec les outils du maître » reste ouverte. Peut-être pas. Mais ça vaut le coup d’essayer ; il se pourrait en effet que « l’IA aborigène australienne » ne soit pas nécessairement si loin de nous que ça, et que nous pourrions nous en inspirer.

Sources et références

  1. « Indigenous » en anglais. Je ne suis cependant pas sûr du mot français qui convient. Compte tenu de l’histoire du mot « indigène » en France, j’ai préféré utiliser le mot « aborigène » pour parler du contexte Australien.
  2. North Australian Indigenous Land and Sea Management Alliance
  3. La lettre majuscule indique le caractère sacré de la terre.
  4. https://nailsma.org.au/projects/healthy-country-ai
  5. https://cybernetics.anu.edu.au/2021/08/25/culturally-responsible-AI-to-care-for-biodiversity-and-values-on-country/
  6. http://trackerdataproject.com/
  7. We need new ontologies for AI design

Laissez une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *