Déjà utilisateur ?ConnexionSupport technique
1 juin 2023
Dans cette interview, nous avons le plaisir d‘échanger avec un expert en intelligence artificielle, Nicolas Sabouret, professeur à l’Université Paris-Saclay et Directeur de la Graduate School « Informatique et Sciences du Numérique ».
Spécialisé dans le domaine de l’intelligence artificielle et de l’interaction humain-machine, il s’intéresse notamment à l’informatique affective et contribue depuis des années à éclairer le débat sur sa discipline grâce à ses travaux, ses thèses et à la publication de plusieurs ouvrages.
Au cours de cette interview, nous aborderons plusieurs sujets, notamment la définition de l'IA et ses domaines d'application, les défis technologiques liés à son développement, ainsi que les performances des algorithmes et leur rapport à l'intelligence. Nous explorerons également les compétences nécessaires pour travailler dans ce domaine en constante évolution ainsi que ses utilisations possibles pour l’enseignement et l’apprentissage.
Nous espérons que cette discussion sera enrichissante pour tous ceux qui s'intéressent à l'IA et à son potentiel, présent et à venir.
L'intelligence artificielle est la science qui s'intéresse à faire réaliser par des machines des activités qui nécessitent de l'intelligence lorsqu'elles sont réalisées par des humains.
Elle est utilisée dans de nombreux domaines sans que nous en soyons forcément conscients : il y a de l'IA dans votre GPS de voiture ou dans les recommandations faites par Amazon pour vos achats ou par Facebook pour choisir quels posts vous montrer mais il y en a aussi dans le contrôleur de la grue sur les chantiers pour éviter les à-coups ou dans le centre de tri postal pour le classement des lettres suivant le code postal par reconnaissance optique des caractères, dans les logiciels utilisés par les directeurs de lycées pour préparer les emplois du temps ou encore dans les robots sur Mars pour contrôler les déplacements !
Cette question peut être comprise sous de nombreux aspects très différents, car la "technologie" est un concept qui englobe des notions qui vont de la science aux usages, en passant par la technique.
Au niveau scientifique, la difficulté est de trouver la bonne manière de réaliser un calcul pour obtenir un résultat correct face à un problème dont on sait, mathématiquement, qu'il n'est pas possible d'avoir la solution exacte. C'est pour cela qu'il existe autant de techniques d'IA, chacune étant bien adaptée à une famille de problèmes particuliers.
Au niveau technique, il faut voir comment les algorithmes d'IA peuvent être mis en œuvre dans des dispositifs technologiques. Pour donner un exemple simple, une fois que vous avez écrit un algorithme qui calcule le plus court chemin dans un graphe entre un point A et un point B, il faut du traitement de données géographiques pour calculer le graphe à partir des cartes routières, il faut des satellites pour faire du positionnement, il faut une interface utilisateur conviviale pour saisir l'adresse de destination et visualiser le trajet...
Enfin, sur le plan des usages, il faut que les technologies soient utiles (au sens que les gens y trouvent un intérêt). C'est le cas pour les algorithmes de recommandation et de reconnaissance d'image ou d'analyse de texte pour les réseaux sociaux. Mais certains outils d'IA n'ont pas été adoptés (les systèmes de recommandation dans le domaine médical par exemple) car l'usage n'a pas été au rendez-vous.
Il faudrait d'abord être capable de définir ce qu'est l'intelligence, ce qui est une question difficile.
Mais il y a une certitude : les machines calculent, elles ne « pensent » pas.
Comme certains problèmes se résolvent très bien avec le calcul, les machines sont tout à fait capables de nous surpasser sur certaines tâches (les humains ne savent pas résoudre un sudoku en une milliseconde) et de paraître très compétentes... ce qui fait que nous avons tendance à y voir de l'intelligence, surtout lorsque la tâche est aussi difficile pour un humain (par exemple identifier des tumeurs sur une échographie). Mais il ne s'agit en tout état de cause que du résultat d'un calcul qui a été programmé dans un but spécifique. Les programmes d'IA aujourd'hui ne sont pas capables d'une intelligence « générale », capables de s'adapter à des tâches très diverses.
Luc Julia dit aussi : « l'intelligence ce n'est pas seulement gagner au Go, c'est aussi savoir se faire un sandwich ». C'est tout à fait vrai.
Si par « travailler dans le domaine de l'intelligence artificielle » vous entendez « développer des programmes d'IA », alors il faut des compétences solides en mathématiques et en informatique. Mais vous pouvez aussi travailler dans le domaine de l'IA en interaction avec des outils d'IA, sans être vous-même expert⋅e de la question. Ainsi, nous avons dans notre laboratoire des chercheurs en psychologie qui nous aident à développer des agents conversationnels plus « humains », capables d'assister les utilisateurs sans interférer avec leur mode de vie. Si ces collègues ne développent pas des programmes d'IA, ils contribuent, par leurs études expérimentales et les connaissances qu'ils transmettent aux informaticiens à partir de leurs résultats de recherche, à développer les systèmes d'IA. En cela, ils « travaillent dans le domaine de l'IA ». J'ai pris l'exemple des psychologues mais je pourrais aussi citer des collègues biologistes, médecins, chimistes, énergéticiens, etc. Il n'est donc pas nécessaire d'être informaticien pour contribuer à l'IA.
Car ne l'oublions pas : aucun programme d'IA ne fonctionne « tout seul ». Il y a toujours besoin d'une expertise humaine.
Si, demain, nous souhaitons réaliser des programmes d'IA pour aider à la diffusion de la culture, à la préservation du patrimoine ou à la recherche en histoire, il faudra des experts de ces domaines pour dire « ce que doit faire la machine ». La machine ne pourra pas trouver toute seule quoi faire (et les informaticiens non plus) !
Il y a deux niveaux de réponse à cette question.
Prise très littéralement, je dirais qu'il ne faut pas avoir peur de l'IA : c'est un outil et un outil n'est ni bon ni mauvais.
C'est l'usage que nous faisons de l'outil qui est bon ou mauvais. Avec le même algorithme d'IA de prise de décision à partir d'images, on peut proposer une recommandation à un médecin pour l'aider dans son diagnostic ou bien déclencher automatiquement des opérations médicales sans même le consentement du patient.
Dans le premier cas, nous faisons face à un usage intelligent de l'IA, qui garde en mémoire les limites éventuelles de la technologie et l'importance de l'humain.
Dans le deuxième cas, nous avons une utilisation aliénante... Il faut donc craindre (et prévenir) les utilisations abusives de l'IA, mais pas l'IA par elle-même en tant que discipline scientifique (de même qu'il faut encadrer l'utilisation abusive de la physique nucléaire, pas la science) ! Mais depuis quelques temps, avec la prise de conscience de l'impact écologique des activités humaines, la question « faut-il craindre l'IA » peut prendre un autre sens. En effet, certains algorithmes d'IA, comme l'apprentissage profond, sont extrêmement consommateurs d'énergie et de ressources naturelles. On peut alors craindre qu'une utilisation abusive de ces méthodes nuise, à très court terme, à l'équilibre de notre écosystème terrestre.
Enfin, je voudrais souligner que la formulation de votre question (« les intelligences artificielles ») tend à accentuer la personnification que nous faisons naturellement des outils utilisant de l'IA. Il serait plus correct de dire : « les systèmes d'IA », pour rappeler que ce sont des systèmes et non pas des personnes.
Comme la plupart des scientifiques, je suis malheureusement très mauvais dans cet exercice qui consiste à proposer des usages à partir des recherches dans mon domaine. Mais je suis convaincu qu'il faut regarder et écouter ce que nous disent les artistes et les créateurs qui, s'ils ne comprennent pas forcément bien le fonctionnement des systèmes d'IA, savent mieux que nous en révéler le potentiel. Toutefois, je peux citer deux exemples d'utilisation dans le monde de l'éducation qui me semblent prometteurs.
Dans l'apprentissage des langues, les outils de reconnaissance de la parole et du langage et les outils de traduction automatique issus des recherches en IA peuvent aider à concevoir des dispositifs pour s'entraîner en dehors des cours, ce qui me semble fondamental pour cet apprentissage pour lequel une pratique plus régulière est indispensable.
Le deuxième exemple qui me vient à l'esprit est la correction automatique de travaux des étudiants. S'il est indispensable que l'enseignant comprenne finement les erreurs de ses élèves lors des évaluations formatives, l'évaluation est souvent une tâche répétitive, avec peu d'intérêt dans sa phase sommative. Je pense que l'IA pourrait aider à concevoir des assistants de correction qui permettraient aux enseignants de se concentrer sur la transmission du savoir et le soutien aux élèves et aux étudiants.