Automne 2021 : la saison des citrouilles, des tartes aux pacanes et des nouveaux téléphones aux pêches. Chaque année, juste au bon moment, Apple, Samsung, Google et d’autres abandonnent leurs dernières versions. Ces éléments du calendrier des technologies grand public n’inspirent plus la surprise et l’émerveillement de ces premiers jours grisants. Mais derrière tout ce faste marketing, il se passe quelque chose de remarquable.
La dernière offre de Google, le Pixel 6, est le premier téléphone à disposer d’une puce distincte dédiée à l’IA qui se trouve à côté de son processeur standard. Et la puce qui exécute l’iPhone contient depuis quelques années ce qu’Apple appelle un « moteur neuronal », également dédié à l’IA. Les deux puces sont mieux adaptées aux types de calculs impliqués dans la formation et l’exécution de modèles d’apprentissage automatique sur nos appareils, tels que l’IA qui alimente votre caméra. Presque sans que nous nous en rendions compte, l’IA fait désormais partie de notre vie quotidienne. Et cela change notre perception de l’informatique.
Qu’est-ce que ça veut dire? Eh bien, les ordinateurs n’ont pas beaucoup changé en 40 ou 50 ans. Ils sont plus petits et plus rapides, mais ce sont toujours des boîtes avec des processeurs qui exécutent des instructions humaines. L’IA change cela sur au moins trois fronts : comment les ordinateurs sont fabriqués, comment ils sont programmés et comment ils sont utilisés. En fin de compte, cela changera à quoi ils servent.
« Le cœur de l’informatique passe de l’analyse des chiffres à la prise de décision », déclare Pradeep Dubey, directeur du laboratoire de calcul parallèle chez Intel. Ou, comme le dit Daniela Rus, directrice du MIT CSAIL, l’IA libère les ordinateurs de leurs boîtes.
Plus de hâte moins de vitesse
Le premier changement concerne la façon dont les ordinateurs et les puces qui les contrôlent sont fabriqués. Les gains informatiques traditionnels sont venus du fait que les machines sont devenues plus rapides pour effectuer un calcul après l’autre. Pendant des décennies, le monde a bénéficié des accélérations des puces qui s’accompagnaient d’une régularité métronomique alors que les fabricants de puces suivaient la loi de Moore.
Mais les modèles d’apprentissage en profondeur qui font fonctionner les applications d’IA actuelles nécessitent une approche différente : ils ont besoin d’un grand nombre de calculs moins précis à effectuer tous en même temps. Cela signifie qu’un nouveau type de puce est nécessaire : une puce capable de déplacer les données aussi rapidement que possible, en s’assurant qu’elles sont disponibles quand et où elles sont nécessaires. Lorsque l’apprentissage en profondeur a explosé sur la scène il y a une dizaine d’années, il existait déjà des puces informatiques spécialisées qui étaient assez bonnes pour cela : des unités de traitement graphique, ou GPU, conçues pour afficher un écran entier de pixels des dizaines de fois par seconde.
Tout peut devenir un ordinateur. En effet, la plupart des objets ménagers, des brosses à dents aux interrupteurs en passant par les sonnettes, existent déjà en version intelligente.
Désormais, les fabricants de puces comme Intel, Arm et Nvidia, qui ont fourni bon nombre des premiers GPU, se tournent vers la fabrication de matériel spécialement conçu pour l’IA. Google et Facebook s’imposent également pour la première fois dans cette industrie, dans une course pour trouver un avantage en matière d’IA grâce au matériel.
Par exemple, la puce à l’intérieur du Pixel 6 est une nouvelle version mobile de l’unité de traitement du tenseur de Google, ou TPU. Contrairement aux puces traditionnelles, qui sont orientées vers des calculs ultrarapides et précis, les TPU sont conçus pour les calculs de volume élevé mais de faible précision requis par les réseaux de neurones. Google utilise ces puces en interne depuis 2015 : elles traitent les photos des personnes et les requêtes de recherche en langage naturel. La société sœur de Google, DeepMind, les utilise pour former ses IA.
Au cours des deux dernières années, Google a mis les TPU à la disposition d’autres entreprises, et ces puces, ainsi que des puces similaires développées par d’autres, deviennent la valeur par défaut dans les centres de données du monde.
L’IA aide même à concevoir sa propre infrastructure informatique. En 2020, Google a utilisé un algorithme d’apprentissage par renforcement, un type d’IA qui apprend à résoudre une tâche par essais et erreurs, pour concevoir la disposition d’un nouveau TPU. L’IA a finalement proposé de nouveaux designs étranges auxquels aucun humain ne penserait, mais ils ont fonctionné. Ce type d’IA pourrait un jour développer des puces meilleures et plus efficaces.
Montre, ne dis pas
Le deuxième changement concerne la façon dont les ordinateurs sont informés de ce qu’ils doivent faire. Depuis 40 ans, nous programmons des ordinateurs ; pour les 40 prochains, nous les formerons, déclare Chris Bishop, responsable de Microsoft Research au Royaume-Uni.
Traditionnellement, pour qu’un ordinateur fasse quelque chose comme reconnaître la parole ou identifier des objets dans une image, les programmeurs devaient d’abord élaborer des règles pour l’ordinateur.
Avec l’apprentissage automatique, les programmeurs n’écrivent plus de règles. Au lieu de cela, ils créent un réseau de neurones qui apprend ces règles par lui-même. C’est une façon de penser fondamentalement différente.
L’article L’IA réinvente ce que sont les ordinateurs est apparu en premier sur zimo news.