France World

Une IA forme des conseillers pour faire face aux adolescents en crise

Le chatbot utilise GPT-2 pour ses capacités conversationnelles de base. Ce modèle est formé sur 45 millions de pages du Web, ce qui lui enseigne la structure et la grammaire de base de la langue anglaise. Le projet Trevor l’a ensuite formé davantage sur toutes les transcriptions des précédentes conversations de jeu de rôle de Riley, ce qui a donné au robot le matériel dont il avait besoin pour imiter le personnage.

Tout au long du processus de développement, l’équipe a été surprise par les performances du chatbot. Il n’y a pas de base de données stockant les détails de la biographie de Riley, mais le chatbot est resté cohérent car chaque transcription reflète le même scénario.

Mais il y a aussi des compromis à utiliser l’IA, en particulier dans des contextes sensibles avec des communautés vulnérables. GPT-2 et d’autres algorithmes de langage naturel comme celui-ci sont connus pour intégrer des idées profondément racistes, sexistes et homophobes. Plus d’un chatbot a été égaré de manière désastreuse de cette façon, le plus récent étant un chatbot sud-coréen appelé Lee Luda qui avait le personnage d’un étudiant universitaire de 20 ans. Après avoir rapidement gagné en popularité et interagi avec de plus en plus d’utilisateurs, il a commencé à utiliser des insultes pour décrire les communautés queer et handicapées.

Le projet Trevor en est conscient et a conçu des moyens de limiter les risques de problèmes. Alors que Lee Luda était censé converser avec les utilisateurs sur n’importe quoi, Riley est très étroitement concentré. Les volontaires ne s’écarteront pas trop des conversations sur lesquelles ils ont été formés, ce qui minimise les risques de comportement imprévisible.

Cela facilite également le test complet du chatbot, ce que le projet Trevor dit faire. «Ces cas d’utilisation hautement spécialisés et bien définis, et conçus de manière inclusive, ne présentent pas un risque très élevé», déclare Nenad Tomasev, chercheur chez DeepMind.

D’humain à humain

Ce n’est pas la première fois que le domaine de la santé mentale tente d’exploiter le potentiel de l’IA pour fournir une assistance inclusive et éthique sans blesser les personnes qu’elle est censée aider. Les chercheurs ont développé des moyens prometteurs de détecter la dépression à partir d’une combinaison de signaux visuels et auditifs. Les «robots» de thérapie, bien que n’étant pas équivalents à un professionnel humain, sont lancés comme alternative pour ceux qui n’ont pas accès à un thérapeute ou sont mal à l’aise se confier à une personne.

Chacun de ces développements, et d’autres similaires, nécessitent de réfléchir à la quantité d’outils d’IA de l’agence pour traiter les personnes vulnérables. Et le consensus semble être qu’à ce stade, la technologie n’est pas vraiment adaptée pour remplacer l’aide humaine.

Pourtant, Joiner, le professeur de psychologie, dit que cela pourrait changer avec le temps. Si remplacer les conseillers humains par des copies d’IA est actuellement une mauvaise idée, «cela ne veut pas dire que c’est une contrainte permanente», dit-il. Les gens, «ont des amitiés et des relations artificielles» avec déjà des services d’IA. Tant que les gens ne sont pas amenés à penser qu’ils ont une discussion avec un humain lorsqu’ils parlent à une IA, dit-il, cela pourrait être une possibilité sur toute la ligne.

En attendant, Riley ne sera jamais confronté aux jeunes qui envoient des SMS au projet Trevor: il ne servira jamais que d’outil de formation pour les bénévoles. «Le lien humain à humain entre nos conseillers et les personnes qui nous contactent est essentiel à tout ce que nous faisons», déclare Kendra Gaunt, responsable des données et des produits IA du groupe. «Je pense que cela nous rend vraiment uniques, et quelque chose que je pense qu’aucun de nous ne souhaite remplacer ou changer.»

Source

L’article Une IA forme des conseillers pour faire face aux adolescents en crise est apparu en premier sur zimo news.