Data2vec fait partie d’une grande tendance de l’IA vers des modèles capables d’apprendre à comprendre le monde de plusieurs façons. « C’est une idée intelligente », déclare Ani Kembhavi de l’Allen Institute for AI à Seattle, qui travaille sur la vision et le langage. « C’est une avancée prometteuse en matière de systèmes généralisés d’apprentissage. »
Une mise en garde importante est que bien que le même algorithme d’apprentissage puisse être utilisé pour différentes compétences, il ne peut apprendre qu’une seule compétence à la fois. Une fois qu’il a appris à reconnaître les images, il doit repartir de zéro pour apprendre à reconnaître la parole. Donner à une IA plusieurs compétences à la fois est difficile, mais c’est quelque chose que l’équipe Meta AI veut examiner ensuite.
Les chercheurs ont été surpris de constater que leur approche était en fait plus performante que les techniques existantes pour la reconnaissance des images et de la parole, et aussi performante que les principaux modèles linguistiques pour la compréhension de texte.
Mark Zuckerberg est déjà imaginer des applications métavers potentielles. « Tout cela finira par être intégré aux lunettes AR avec un assistant IA », a-t-il posté sur Facebook aujourd’hui. « Cela pourrait vous aider à préparer le dîner, à remarquer si vous manquez un ingrédient, à baisser le feu ou à effectuer des tâches plus complexes. »
Pour Auli, le principal point à retenir est que les chercheurs doivent sortir de leurs silos. « Hé, vous n’avez pas besoin de vous concentrer sur une seule chose, » dit-il. « Si vous avez une bonne idée, cela pourrait en fait aider à tous les niveaux. »
L’article Le nouvel algorithme d’apprentissage de Meta peut apprendre à l’IA à effectuer plusieurs tâches est apparu en premier sur zimo news.