France World

De l’intelligence artificielle à l’intelligence collective

Dans un célèbre article sur la « fin de la théorie » publié en 2008, Chris Anderson suggérait de manière provocatrice qu’à l’époque de la collecte massive de données, la méthode scientifique, et, en particulier, l’activité de théorisation qu’elle implique, serait devenue obsolète face aux puissances de calcul des algorithmes. Et pourtant, si ce sont évidemment les mathématiques, et en particulier la logique, l’informatique et l’algorithmique, qui ont permis le développement des systèmes d’intelligence artificielle, force est de constater qu’en dépit de leurs performances toujours plus impressionnantes, il est bien une activité que lesdites « intelligences artificielles » ne parviennent pas à simuler : l’invention d’une théorie mathématique reste pour elles quelque chose de tout à fait étranger. 

Pour les 20 ans de Futura, Gilles Babinet, Entrepreneur et Co-Président du Conseil national du numérique, s’associe à la rédaction pour vous proposer tout au long de cette journée particulière, des sujets qui agitent la communauté numérique. Les articles que vous découvrirez aujourd’hui ont pour ambition de faire un pas de côté, de susciter des interrogations différentes et de proposer une rencontre entre science et société sur des sujets inéluctables autour du numérique.

Comme l’écrivait le philosophe et médecin Georges Canguilhem en 1980, dans un article intitulé Le cerveau et la pensée : « Une chose est le calcul ou le traitement des données selon des instructions, autre chose que l’invention d’un théorème. Calculer la trajectoire d’une fusée spatiale relève de l’ordinateur. Formuler la loi de l’attraction universelle est une performance qui n’en relève pas. Pas d’invention sans conscience d’un vide logique, sans tension vers un possible, sans risque de se tromper. »

Du programme à l’invention : calculer n’est pas penser

L’invention, rappelle alors Canguilhem, correspond à une « situation de pensée où l’on vise ce que l’on ne voit pas », et qui, par définition, ne peut donc pas être programmée. « Inventer, soutient-il encore, c’est créer de l’information, perturber des habitudes de pensée, l’état stationnaire d’un savoir » : cela ne revient donc pas à exécuter un ensemble de règles prédéterminées ou à mettre en relation des données, mais à engendrer de la nouveauté par rapport à ce qui est déjà là, de manière imprévisible pour l’inventeur lui-même, qui est souvent le premier à être surpris par sa découverte ou par sa théorie.

Nombreux seront ceux qui soutiendront que depuis les années 1980, les « machines » se sont transformées, qu’elles ne fonctionnent plus sous la contrainte de programmes déterminés, qu’elles sont capables d’« apprendre » en fonction des données collectées, que nous avons aujourd’hui affaire à des « machines apprenantes », voire à des « machines morales » ou des « machines intelligentes ». Mais à bien y regarder, l’argument de Canguilhem mérite peut-être un peu plus d’attention. Car si les technologies ont bien sûr évolué, les discours qui les accompagnent, eux, ont finalement assez peu changé. En 1980 déjà, Canguilhem relevait « l’abus d’expressions non pertinentes telles que « cerveau conscient », « machine consciente », « cerveau artificiel » ou « intelligence artificielle » », qui reposent toutes sur une analogie entre le cerveau, la machine et l’esprit.

De l’intelligence artificielle à l’intelligence collective : le numérique au service des savoirs

Or, pour Canguilhem, quelles que soient les performances des dispositifs techniques, de telles analogies demeurent problématiques : si certains processus cérébraux ou certaines opérations intellectuelles ont pu servir de modèle pour la construction de machines artificielles, cela n’implique pas pour autant que ces machines une fois construites, puissent servir de modèle pour comprendre la pensée humaine ou se voir attribuées des facultés intellectuelles, alors même que ce sont précisément cette pensée ou ces facultés qui ont permis leur conception et leur construction, à travers la mise en communication des nombreux cerveaux qui se sont alors associés pour les élaborer.

En effet, loin de se réduire à un ensemble de processus neuronaux ou d’opérations logiques formalisées, la pensée constitue ce que le philosophe Gilbert Simondon décrit comme un processus d’individuation psychique et collectif, c’est-à-dire, un processus au cours duquel les individus vivants se relient collectivement en partageant des symboles et des significations, qui sont toujours inscrits, déposés, sédimentés dans des supports matériels (imprimés, analogiques, numériques) permettant de les manipuler. La pensée ne se situe donc ni dans les cerveaux ni dans les machines, mais bien entre les cerveaux, dans les milieux symboliques partagés par les individus et supportés par toutes sortes de dispositifs techniques, qui affectent en retour les fonctions cérébrales, les capacités psychiques et les savoirs collectifs.

Dès lors, à l’époque de « l’intelligence artificielle », la question qui se pose n’est pas celle de savoir si les machines peuvent penser, mais bien celle de savoir comment les dispositifs de calculs automatisés et les supports de publication numériques transforment les milieux symboliques et les savoirs partagés. C’est sur cette question que se sont interrogés les membres du Conseil national du numérique, dans une note intitulée « Pour un numérique au service des savoirs ». De l’informatisation à la capacitation. En effet, si l’informatisation des sociétés n’a cessé de se développer, si les technologies n’ont cessé de se perfectionner, la question de la capacitation des citoyens semble aujourd’hui se poser : si nous sommes tous devenus des utilisateurs du numérique, il n’est pas certain pour autant que nous comprenions le fonctionnement des technologies que nous utilisons, ni les enjeux anthropologiques de cette révolution.

De l’informatisation à la capacitation : vers une culture numérique partagée ?

Par rapport aux autres révolutions techniques, la mutation numérique s’est produite à une vitesse sans précédent, et les dispositifs numériques se sont diffusés dans les sociétés bien avant que les savoirs nécessaires à leur apprivoisement n’aient pu se développer, si bien que les usagers se retrouvent souvent en position de consommateurs de services ou d’« accros » aux applications. Or, l’utilisation aveugle d’une technologie peut être un facteur d’« incapacitation », dans la mesure où les milieux techniques configurent nos usages, modèlent nos comportements, et affectent en profondeur nos facultés comme nos relations. Les technologies ne sont pas de simples moyens ou de simples instruments : elles nous transforment autant que nous les utilisons. Si nous ne comprenons pas les dispositifs qui nous entourent et dont nous dépendons quotidiennement, nous risquons de nous retrouver asservis à des automatismes que nous n’avons pas choisis et dont nous ne sommes pas conscients.

Pour faire face à ce risque, la nécessité d’une culture numérique semble s’imposer. Cette culture ne se limite pas à l’acquisition de compétences techniques, mais implique aussi une conscience historique de l’évolution des technologies, permettant aux citoyens, et en particulier aux jeunes générations, non seulement de les utiliser, mais aussi de les comprendre et de les transformer. À condition d’être conçus et développés en ce sens, les supports numériques recèlent des potentialités inédites pour la co-construction des savoirs, les controverses argumentées et le partage des connaissances : contrairement aux médias audiovisuels qui impliquent une division structurelle entre producteurs et récepteurs de contenus, le numérique permet de faire passer les récepteurs en position de producteurs et de contributeurs, à condition que ceux-ci disposent des capacités pratiques et de la réflexivité critique permettant de s’approprier les dispositifs techniques.

Le développement d’une culture numérique partagée permettrait ainsi d’inventer des outils numériques adaptés aux besoins et aux désirs singuliers des populations : loin de promouvoir la « fin de la théorie » face aux calculs algorithmiques, il s’agirait de mettre l’intelligence artificielle au service de l’intelligence collective.

Travaux associés 

CNNUM : Pour un numérique au service des savoirs 

À lire : l’article de Chris Anderson, publié en 2008 « The End of Theory: The Data Deluge Makes the Scientific Method Obsolete »

Tous les articles de la journée spéciale :

Cette année, Futura célèbre ses 20 ans d’existence. 20 ans de découvertes, d’explorations et de vulgarisation scientifique.

Afin de vivre pleinement cette aventure avec nous, n’hésitez pas à :

Nous envoyer vos messages d’anniversaire et de souhaits pour un Livre d’Or spécial 20 ans sur cette page.
Retrouver tous les contenus spéciaux pour le 20e anniversaire de Futura sur notre page dédiée.
Suivre l’anniversaire sur nos réseaux sociaux avec le #Futura20ans.

Restez connectés pour fêter ces deux décennies de succès, nous vous réservons de nombreuses surprises jusqu’à fin 2021 ! 

Voir tous les contenus 20 ans sur Futura

 

Intéressé par ce que vous venez de lire ?

www.futura-sciences.com

L’article De l’intelligence artificielle à l’intelligence collective est apparu en premier sur zimo news.