Mais une grande partie du plan d’Oasis reste, au mieux, idéaliste. Un exemple est une proposition d’utiliser l’apprentissage automatique pour détecter le harcèlement et les discours de haine. Comme ma collègue Karen Hao l’a signalé l’année dernière, les modèles d’IA donnent trop de chances au discours de haine de se propager ou de le dépasser. Pourtant, Wang défend la promotion de l’IA par Oasis comme outil de modération. « L’IA est aussi bonne que les données l’obtiennent », dit-elle. « Les plates-formes partagent différentes pratiques de modération, mais toutes travaillent vers une meilleure précision, une réaction plus rapide et une prévention de la sécurité par la conception. »
Le document lui-même compte sept pages et décrit les objectifs futurs du consortium. Une grande partie se lit comme un énoncé de mission, et Wang dit que les premiers mois de travail se sont concentrés sur la création de groupes consultatifs pour aider à créer les objectifs.
D’autres éléments du plan, tels que sa stratégie de modération de contenu, sont vagues. Wang dit qu’elle aimerait que les entreprises embauchent un ensemble diversifié de modérateurs de contenu afin qu’ils puissent comprendre et combattre le harcèlement des personnes de couleur et de ceux qui s’identifient comme non masculins. Mais le plan ne propose aucune autre étape vers la réalisation de cet objectif.
Le consortium s’attendra également à ce que les entreprises membres partagent des données sur les utilisateurs abusifs, ce qui est important pour identifier les récidivistes. Les entreprises technologiques participantes s’associeront à des organisations à but non lucratif, des agences gouvernementales et des forces de l’ordre pour aider à créer des politiques de sécurité, a déclaré Wang. Elle prévoit également qu’Oasis dispose d’une équipe d’intervention des forces de l’ordre, dont le travail consistera à informer la police du harcèlement et des abus. Mais ça reste flou comment le travail du groupe de travail avec les forces de l’ordre sera différent du statu quo.
Concilier confidentialité et sécurité
Malgré le manque de détails concrets, les experts à qui j’ai parlé pensent que le document de normes du consortium est au moins une bonne première étape. « C’est une bonne chose qu’Oasis se penche sur l’autorégulation, en commençant par les personnes qui connaissent les systèmes et leurs limites », déclare Brittan Heller, avocat spécialisé dans la technologie et les droits de l’homme.
Ce n’est pas la première fois que des entreprises technologiques travaillent ensemble de cette manière. En 2017, certains ont accepté d’échanger librement des informations avec le Forum Internet mondial de lutte contre le terrorisme. Aujourd’hui, le GIFCT reste indépendant et les entreprises qui y adhèrent s’autorégulent.
Lucy Sparrow, chercheuse à la School of Computing and Information Systems de l’Université de Melbourne, explique que ce qui se passe pour Oasis, c’est qu’il offre aux entreprises quelque chose avec quoi travailler, plutôt que d’attendre qu’elles proposent elles-mêmes le langage ou d’attendre un tiers pour faire ce travail.
Sparrow ajoute que l’intégration de l’éthique dans la conception dès le départ, comme Oasis le demande, est admirable et que ses recherches sur les systèmes de jeux multijoueurs montrent que cela fait une différence. « L’éthique a tendance à être mise à l’écart, mais ici, elle [Oasis] encouragent la réflexion sur l’éthique dès le début », dit-elle.
Mais Heller dit que la conception éthique pourrait ne pas suffire. Elle suggère que les entreprises technologiques réorganisent leurs conditions de service, qui ont été fortement critiquées pour avoir profité des consommateurs sans expertise juridique.
Sparrow est d’accord, affirmant qu’elle hésite à croire qu’un groupe d’entreprises technologiques agira dans le meilleur intérêt des consommateurs. « Cela soulève vraiment deux questions », dit-elle. « Premièrement, dans quelle mesure faisons-nous confiance aux sociétés axées sur le capital pour contrôler la sécurité ? Et deuxièmement, quel contrôle voulons-nous que les entreprises technologiques aient sur nos vies virtuelles ? »
C’est une situation délicate, en particulier parce que les utilisateurs ont droit à la fois à la sécurité et à la vie privée, mais ces besoins peuvent être en tension.
L’article Ce groupe d’entreprises technologiques vient de signer un métaverse plus sûr est apparu en premier sur zimo news.