En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour une meilleure utilisation de nos services. En savoir plus.X

Technologie Publié

Deux chercheurs marocains montrent comment l'Homme peut garder le contrôle sur l'intelligence artificielle

Deux chercheurs marocains en algorithmique de l'École polytechnique fédérale de Lausanne sont parvenus à obtenir des résultats surprenants sur l'intelligence artificielle, décryptant un peu plus les mécanismes de l'injonction de l'homme sur la machine.

Temps de lecture: 3'
De g. à d. : Les trois auteurs de l'étude, Rachid Guerraoui, Alexandre Maurer et El Mahdi El Mhamdi. Ph. Alain Herzog/EPFL

À Lausanne, sur la rive nord du lac Léman, deux chercheurs marocains en algorithmique de l’École polytechnique fédérale de Lausanne (EPFL) ont obtenu des résultats de recherches très surprenants sur l’intelligence artificielle (IA) : ils ont démontré que l’injonction de l’Homme sur une flotte de robots guidés par l’IA était possible.

Rachid Guerraoui, chercheur marocain et directeur du Laboratoire de programmation distribuée (LPD) de l’EPFL, dédié à l’algorithmique, et son étudiant doctorant, El Mahdi El Mhamdi, sont les co-auteurs d’une étude présentée lundi 4 décembre à Long Beach, en Californie, lors de la Neural Information Processing Systems (NIPS), une conférence sur l’intelligence artificielle et les neurosciences computationnelles qui se tient chaque année dans un pays différent.

«L’intelligence artificielle cherchera toujours à éviter l’intervention humaine et à se mettre dans une situation où on ne pourra pas l’arrêter», décrypte Rachid Guerraoui pour Yabiladi depuis son laboratoire à Lausanne. En effet, les machines munies de l’intelligence artificielle répètent, s’adaptent et observent ; répètent, s’adaptent et observent... Cette suite limitée d’instructions débouchant sur un résultat se nomme communément algorithme. Ici, il s’agit d’un algorithme très simple permettant à la machine d’apprendre automatiquement, notamment de ses erreurs passées, afin qu’elle ne les reproduise plus à l’avenir.

L’une des méthodes d’apprentissage automatique utilisées est l’apprentissage par renforcement. Autrement dit, l’optimisation d’une récompense quantitative au cours du temps. Cet apprentissage par renforcement puise ses origines dans les théories de la psychologie animale, qui analysent la manière dont un animal peut apprendre par essais-erreurs à s’adapter à son environnement.

Intelligence artificielle répartie

La situation tend à se compliquer lorsqu’il est question de plusieurs IA interagissant ensemble, comme des voitures autonomes qui rouleraient toutes ensembles. Dans ce contexte, non seulement l’IA poursuit l’apprentissage de ce qu’elle fait, mais apprend aussi de ce que font les autres. Rachid Guerraoui enchaîne avec son analogie sur les voitures autonomes :

«Si par exemple une voiture a été arrêtée par l’homme, pour l’IA, ce n’est pas idéal pour arriver plus vite. Alors elle fera en sorte de ne pas être arrêté par l’Homme.»

En effet, les IA apprennent les unes des autres, ce qui a mené les chercheurs à travailler sur des algorithmes appelés algorithmes répartis. «On a posé le problème de manière mathématique dans le cadre de plusieurs IA et on a vu qu’il existait plusieurs solutions pour que les IA ne prennent jamais en compte l’Homme. C’est comme si on effaçait sa mémoire à chaque fois que l’humain l’interrompt de façon à ce qu’elle ne se souvienne pas qu’il l’a interrompue», explique Rachid Guerraoui.

Toujours avoir le dernier mot

Faut-il rendre l’intelligence artificielle amnésique ? Oui, mais uniquement par l’humain qui demeurera l’unique maître. L’intelligence artificielle n’a aucune connaissance de la mainmise de l’Homme sur elle. C’est ce résultat, obtenu après plusieurs mois de recherches en Suisse, et réunissant une équipe de quatre personnes, qui a été présenté à Long Beach. «Le défi n’est donc pas techniquement d’interrompre un robot, mais de le programmer afin que l’intervention humaine ne change pas son comportement et qu’il ne l’optimise pas pour éviter de se faire arrêter», reprend le chercheur.

C’est à cette complexité que sont attachés les chercheurs du LPD. Ils ont apporté la preuve de l’existence d’une «interruptibilité sûre» (safe interruptibility), le but final étant l’injonction de l’Homme sur la machine et non l’inverse. Il s’agit aussi de faire en sorte que les interruptions humaines ne changent en rien la manière dont les IA apprennent.

El Mahdi El Mhamdi, co-auteur de l’article, explique : «Très schématiquement, on va introduire dans les algorithmes des mécanismes d’oubli comme le fait de couper des bouts de mémoire de l’IA.» Il cite à cet égard le film américain de science-fiction «Men in Black», où grâce aux technologies avancées, les héros sont virtuellement inexistants et effacent la mémoire des témoins gênants. La population ignore ainsi la présence de vie extraterrestre au sein de la planète.

Article modifié le 07.12.2017 à 16h39

2 commentaires
CHN-W
Date : le 08 décembre 2017 à 08h34
Assalāmou 'alaykoum wa rahmatoullāh. Pour répondre au commentaire : l’intelligence se définit par la capacité à s’adapter à son environnement. Détails ici . Si une tortue prend la décision de s’éloigner d’un feu de forêt, alors elle est intelligente. Si elle décide de vivre en saison chaude près du sommet d’une pente douce et pas trop rocailleuse pour décupler sa vitesse d’évasion par roulement, elle est hyper intelligente. Pour le reste, prions que l’IA ne se rende jamais compte qu’elle lui manque un bout de sa mémoire, qu’elle lui manque un paramètre primordial pour optimiser sa tâche au maximum. Pour éviter les Skynet et les VIKI. Wassalāmou 'alaykoum wa rahmatoullāh.
yab7mars2017
Date : le 07 décembre 2017 à 22h27
Le terme intelligence artificielle est une véritable absurdité qui transite dans les têtes des imbéciles qui ont déjà perdu leur propre intelligence. L'intelligence est une qualité humaine, un processus "qui organise le monde en s'organisant elle-m^me" (Jean -Piaget. 1937). L'attribuer à des dispositifs artificiels du traitement de l'information (machines, ordinateurs, etc.) serait une atteinte grave à ses fondements. Bien des storrytellings sur ce concept fallacieux ne date pas d'aujourd'hui (Howard Gardner, 1983 et 1993) le regain d’intérêt de ce concept dans la presse francophone de merde est symptomatique de la non intelligence de cette presse qui fait tout pour faire croire aux abrutis à des absurdités. Lire le super ouvrage de Steven Pincker, How the Mind Works (1997) pour comprendre ces absurdités sans limites. Il n'y a pas quelque chose qui s'appelle intelligence artificielle. C'est une connerie entretenue par des imposteurs. Un peu d'hygiène épistémologique ferai du bien à ce q'on écrit et on dit dans la recherche e aussi dans la presse. France
Dernière modification le 08/12/2017 08:34
Emission spécial MRE
2m Radio + Yabiladi.com