France World

Arrêtez de parler d’éthique de l’IA. Il est temps de parler de pouvoir.

Ce faisant, je voulais vraiment ouvrir cette compréhension de l’IA comme n’étant ni artificielle ni intelligente. C’est le opposé d’artificiel. Il provient des parties les plus matérielles de la croûte terrestre et du travail des corps humains, et de tous les artefacts que nous produisons, disons et photographions chaque jour. Ce n’est pas non plus intelligent. Je pense qu’il y a ce grand péché originel sur le terrain, où les gens ont supposé que les ordinateurs sont en quelque sorte comme des cerveaux humains et que si nous les entraînons simplement comme des enfants, ils deviendront lentement ces êtres surnaturels.

C’est quelque chose qui, je pense, est vraiment problématique – que nous ayons acheté cette idée de l’intelligence alors qu’en fait, nous examinons simplement des formes d’analyse statistique à grande échelle qui posent autant de problèmes que les données qui sont fournies.

Vous a-t-il été immédiatement évident que c’est ainsi que les gens devraient penser à l’IA? Ou était-ce un voyage?

Ça a vraiment été un voyage. Je dirais que l’un des tournants pour moi a été de retour en 2016, lorsque j’ai lancé un projet appelé «Anatomie d’un système d’IA”Avec Vladan Joler. Nous nous sommes rencontrés lors d’une conférence consacrée spécifiquement à l’intelligence artificielle à commande vocale, et nous essayions de tirer efficacement parti de ce qu’il faut pour faire fonctionner un Amazon Echo. Quels sont les composants? Comment extrait-il les données? Quelles sont les couches du pipeline de données?

Nous avons réalisé, eh bien – en fait, pour comprendre cela, il faut comprendre d’où viennent les composants. Où les puces ont-elles été produites? Où sont les mines? Où est-il fondu? Où sont les chemins de la logistique et de la chaîne d’approvisionnement?

Enfin, comment retracer la fin de vie de ces appareils? Comment regardons-nous où se trouvent les décharges de déchets électroniques dans des endroits comme la Malaisie, le Ghana et le Pakistan? Nous avons abouti à ce projet de recherche de deux ans, qui prend beaucoup de temps, pour vraiment retracer ces chaînes d’approvisionnement en matériaux du berceau à la tombe.

Lorsque vous commencez à examiner les systèmes d’IA à cette plus grande échelle, et sur cet horizon temporel plus long, vous passez de ces comptes très étroits de «l’équité de l’IA» et de «l’éthique» à dire: ce sont des systèmes qui produisent des changements géomorphiques profonds et durables. notre planète, ainsi qu’augmenter les formes d’inégalité du travail que nous avons déjà dans le monde.

Cela m’a donc fait réaliser que je devais passer d’une analyse d’un seul appareil, l’Amazon Echo, à l’application de ce type d’analyse à l’ensemble du secteur. C’était pour moi la grande tâche, et c’est pourquoi Atlas de l’IA a mis cinq ans à écrire. Il est vraiment nécessaire de voir ce que ces systèmes nous coûtent vraiment, car nous faisons si rarement le travail de comprendre leurs véritables implications planétaires.

L’autre chose que je dirais qui a été une véritable source d’inspiration est le domaine grandissant des universitaires qui se posent ces questions plus importantes sur le travail, les données et les inégalités. Ici, je pense à Ruha Benjamin, Safiya Noble, Mar Hicks, Julie Cohen, Meredith Broussard, Simone Brown – la liste est longue. Je vois cela comme une contribution à cet ensemble de connaissances en apportant des perspectives qui relient l’environnement, les droits du travail et la protection des données.

Vous voyagez beaucoup tout au long du livre. Presque chaque chapitre commence par le fait que vous regardez votre environnement. Pourquoi était-ce important pour vous?

C’était un choix très conscient de fonder une analyse de l’IA dans des endroits spécifiques, de s’éloigner de ces «nulle part» abstraites de l’espace algorithmique, où se déroulent tant de débats autour de l’apprentissage automatique. Et j’espère que cela met en évidence le fait que lorsque nous ne faisons pas cela, lorsque nous parlons simplement de ces «espaces nulle part» d’objectivité algorithmique, c’est aussi un choix politique, et cela a des ramifications.

En termes d’enchaînement des lieux, c’est vraiment pourquoi j’ai commencé à réfléchir à cette métaphore d’un atlas, car les atlas sont des livres inhabituels. Ce sont des livres que vous pouvez ouvrir et regarder à l’échelle d’un continent entier, ou vous pouvez zoomer et regarder une chaîne de montagnes ou une ville. Ils vous donnent ces changements de perspective et d’échelle.

Il y a cette jolie ligne que j’utilise dans le livre de la physicienne Ursula Franklin. Elle écrit sur la manière dont les cartes associent le connu et l’inconnu dans ces méthodes de perception collective. Donc, pour moi, cela reposait vraiment sur les connaissances que j’avais, mais aussi sur les emplacements réels où l’IA est construite très littéralement à partir de roches, de sable et de pétrole.

Quel genre de commentaires le livre a-t-il reçu?

L’une des choses qui m’ont surpris dans les premières réponses est que les gens ont vraiment l’impression que ce genre de perspective était en retard. Il y a un moment de reconnaissance que nous devons avoir un type de conversation différent de ceux que nous avons eu ces dernières années.

Nous avons passé beaucoup trop de temps à nous concentrer sur des correctifs techniques étroits pour les systèmes d’IA et à toujours centrer les réponses techniques et les réponses techniques. Nous devons maintenant faire face à l’empreinte environnementale des systèmes. Nous devons lutter contre les formes très réelles d’exploitation par le travail qui se sont produites dans la construction de ces systèmes.

Et nous commençons également à voir l’héritage toxique de ce qui se passe lorsque vous extrayez autant de données que possible sur Internet et que vous l’appelez simplement la vérité fondamentale. Ce type de cadrage problématique du monde a produit tant de préjudices et, comme toujours, ces préjudices ont surtout été ressentis par des communautés qui étaient déjà marginalisées et qui ne bénéficiaient pas des avantages de ces systèmes.

Qu’espérez-vous que les gens commenceront à faire différemment?

J’espère que ce sera beaucoup plus difficile d’avoir ces conversations sans issue où des termes comme «éthique» et «IA pour de bon» ont été complètement dénaturés de toute signification réelle. J’espère que cela lèvera le rideau et dit, regardons en fait qui dirige les leviers de ces systèmes. Cela signifie passer de la simple concentration sur des choses comme les principes éthiques à parler de pouvoir.

Comment s’éloigner de ce cadrage éthique?

Source

L’article Arrêtez de parler d’éthique de l’IA. Il est temps de parler de pouvoir. est apparu en premier sur zimo news.