Click to rate this post!
[Total: 0 Average: 0]

Les machines sont omniprésentes. Comprendre leur comportement est essentiel pour pouvoir contrôler leurs actions, maximiser leurs avantages et minimiser leurs dommages. L’idée n’est pas seulement d’analyser le code informatique d’une machine, mais d’étudier son comportement de manière empirique. Ainsi, 23 scientifiques de tout horizon plaident pour la création d’une science comportementale des machines.

23 scientifiques de tout horizon plaident pour la création d’une science des comportements des machines. Celle-ci permettrait, à leurs yeux, de mieux maîtriser l’impact de l’intelligence artificielle sur la vie des humains.

Les robots sont-ils des « animaux » comme les autres ? Et si oui, faut-il étudier leur comportement ? L’éthologie sert à mieux comprendre le monde animal, pourquoi ne pas imaginer une sorte de « robotlogie » (terme totalement non officiel), science qui observerait le comportement des machines ? L’idée peut paraître farfelue mais elle est défendue par des gens très sérieux. Mercredi 24 avril, la prestigieuse revue Nature a publié la tribune de 23 scientifiques de tout horizon (informaticiens, anthropologues, psychologues, biologistes…) plaidant pour la création d’une telle science.

Au départ, il y a un constat : les machines dotées d’intelligence artificielle prennent une place grandissante dans nos vies. « Ces machines filtrent les informations qui nous parviennent, nous guident dans la recherche d’un conjoint, et conversent avec nos enfants. Elles échangent des titres sur les marchés financiers, elles conseillent les juges et les policiers. Bientôt, elles conduiront nos voitures et feront la guerre à notre place », résume dans un article du Journal du CNRS Jean-François Bonnefon, docteur en psychologie cognitive et co-auteur de la tribune de Nature. Bref, les machines sont omniprésentes et pourtant nous les connaissons mal. Or « comprendre leur comportement est essentiel pour pouvoir contrôler leurs actions, maximiser leurs avantages et minimiser leurs dommages », estiment les auteurs dans Nature.

Ne pas seulement analyser le code d’une machine, mais son comportement

« Aujourd’hui les personnes qui étudient le comportement des algorithmes sont les mêmes que celles qui les créent », soulignent les scientifiques. « Ils vérifient avant tout que le système fait bien ce qu’on lui demande ». Le problème c’est que les algorithmes ont parfois des comportements imprévisibles. Personne n’avait, par exemple, prédit que Tay, le chatbot automatique développé par Microsoft en 2016, deviendrait raciste après 24 heures passées sur Twitter. Ni que Bob et Alice, deux agents conversationnels créés par Facebook en 2017, développeraient leur propre langage en discutant ensemble.

Concrètement, à quoi ressemblerait une « éthologie » des machines ? Cette science n’étudierait pas les robots « en tant qu’objets d’ingénierie », expliquent les auteurs de la tribune. L’idée n’est pas seulement d’analyser le code informatique d’une machine, mais d’étudier son comportement de manière empirique .

« Parfois, la programmation d’une machine n’est pas accessible, par exemple quand son code est un secret industriel, souligne Jean-François Bonnefon. Dans ce cas, il est nécessaire de comprendre une machine de l’extérieur, en observant ses actions et en mesurant leurs conséquences. D’autres fois, il n’est pas possible de prédire complètement le comportement d’une machine à partir de son code, parce que ce comportement va changer de façon complexe quand la machine s’adaptera à son environnement, par un processus d’apprentissage certes guidé mais finalement opaque. Dans ce cas, il est nécessaire d’observer en continu ce comportement et d’en simuler les évolutions potentielles. Enfin, même quand l’on peut prédire le comportement d’une machine à partir de son code, il est difficile de prédire comment les actions de la machine vont changer le comportement des humains (qui, eux, ne sont pas programmables), et comment les actions des humains vont en retour changer le comportement de la machine. Dans ce cas, il est nécessaire de mener des expériences pour anticiper la coévolution culturelle des humains et des machines. »

Une arme autonome sait-elle mesurer sa force ?

Les auteurs de la tribune établissent une première liste de questions auxquelles les spécialistes de cette science pourraient répondre. « Est-ce qu’un algorithme d’application de rencontres augmente ou réduit l’homophilie (le fait de se rapprocher de gens qui nous ressemblent) ? Est-ce qu’un algorithme sur les réseaux sociaux censure certaines informations inutilement ? Est-ce qu’une arme autonome sait mesurer sa force ?

Une telle science ne devra pas seulement observer le comportement individuel d’une machine, mais aussi son comportement en groupe et le comportement entre humain et machine. Elle devra aussi être multi-disciplinaire. Les auteurs convoquent informaticiens et roboticiens, mais aussi psychologues, économistes, politologues et anthropologues.

Attention à ne pas tomber dans l’anthropomorphisme

Le danger d’une telle discipline serait de tomber dans l’anthropomorphisme et le zoomorphisme. Les signataires de la tribune en ont conscience. Ils en font une condition au développement d’une telle science. « Même si l’emprunt des méthodes scientifiques comportementales existantes peut s’avérer utile pour l’étude des machines, les algorithmes peuvent présenter des formes d’intelligence et de comportement différents de ceux observés chez les agents biologiques », écrivent-ils.

Source : explore-alive.io  (CC BY-NC-SA 4.0)

Dernière modification: 28 juillet 2020