in ,

Sens commun – La clé pour créer des machines plus intelligentes ?

Des chercheurs de l'Imperial College London sont parvenus à combiner l'IA symbolique et le Machine Learning pour créer une intelligence artificielle hybride, capable de faire preuve de sens commun et de porter les connaissances acquises d'un jeu à l'autre. Cette technologie pourrait révolutionner l'intelligence artificielle, notamment pour les véhicules autonomes.

Le tout premier jeu vidéo, Pong, repose sur un principe très simple. Le joueur contrôle une raquette, et tente d'envoyer la balle derrière la raquette de son adversaire. L'intelligence artificielle a appris à jouer à ce jeu, si bien qu'elle est désormais capable de battre facilement la plupart des êtres humains. Cependant, si cette même IA tente de jouer à Breakout, un jeu très similaire, elle sera totalement désemparée. Elle ne peut pas utiliser ce qu'elle a apprit auparavant en jouant à Pong, et doit à nouveau tout apprendre. Ce problème freine l'intelligence artificielle moderne.

Les ordinateurs sont capables d'apprendre de façon autonome, mais ne peuvent transposer les connaissances ainsi acquises pour résoudre de nouveaux problèmes. Au Imperial College London, Murray Shanahan et ses collègues travaillent sur une façon de résoudre ce problème en utilisant une technique nommée IA symbolique. Cette technique consiste à apposer des labels pour l'intelligence artificielle. Shanahan compte combiner cette technique ancienne avec le Machine Learning.

Le Machine Learning à la rescousse de l'IA symbolique

Par le passé, l'IA symbolique n'a jamais pris son envol car la description manuelle prend beaucoup trop de temps. Ce problème a été surmonté par l'IA moderne grâce aux réseaux de neurones artificiels capables d'apprendre leurs propres représentations du monde.

Les réseaux de neurones artificiels sont à l'origine des dernières avancées récentes de l'intelligence artificielle, mais les représentations utilisées sont incompréhensibles pour les humains et ne peuvent être transférées à d'autres ensembles de neurones. Pour chaque nouvelle tâche, les réseaux de neurones doivent développer de nouvelles représentations. L'apprentissage est lent, et repose sur le Big Data et la puissance informatique.

Les travaux de Shanahan visent à lier l'IA symbolique à l'apprentissage autonome des réseaux de neurones, permettant de transmettre des connaissances entre les tâches. L'apprentissage est ainsi accéléré, et nécessite moins de données sur le monde. Comme le souligne Andrej Karpathy, chercheur en Machine Learning au sein de la firme Open AI, il est inutile d'avoir une centaine d'accidents de voiture pour commencer à éviter d'avoir des accidents.

L'IA symbolique aide également à comprendre comment les machines prennent des décisions. D'après Joanna Bryson, chercheur en IA au sein de l'Université de Bath, au Royaume-Uni, les réseaux de neurones artificiels ne convertissent pas la réalité qui les entoure en symboles comme nous le faisons, à savoir des concepts ou des labels réutilisables tells que des mots ou des phrases.

Une architecture hybride dotée d'un sens commun

L'architecture hybride de Shanahan et Garnelo retient l'habileté des réseaux de neurones à interpréter le monde indépendamment. Les chercheurs combinent ce point avec des éléments basiques de la façon dont nous comprenons le monde. En général, les choses n'existent pas sans raison. Les objets présentent certains attributs comme une forme et une couleur. Ceci permet à l'architecture hybride d'acquérir un sens commun rudimentaire. Ainsi, le système apprend des règles et peut prendre en charge des situations trop complexes pour un système basé purement sur un réseau de neurones artificiels.

L'équipe a testé ces capacités hybrides sur un simple jeu de société. À la croisée du morpion et de Pacman, ce jeu met en scène un curseur se déplaçant sur un plateau parsemé de cercles et de croix. Si le curseur percute un cercle, un point est remporté. Si le curseur heurte une croix, le point est perdu. La distribution des symboles diffère à chaque partie, et l'intelligence artificielle doit comprendre par elle-même quelles actions sont associées aux récompenses.

Une IA plus performante que Deep Q-Network

Confrontée à l'algorithme Deep Q-Network créé par , l'IA s'en est très bien sortie, et a battu son score sur des plateaux inédits générés de façon procédurale. L'hybride a été capable de transférer le savoir acquis au fil des parties. Après 1000 sessions d'entrainement, DQN est parvenu a atteindre un score positif à la moitié des parties. En seulement 200 parties d'entraînement, l'hybride a atteint un taux de réussite de 70%. Shanahan attribue ce taux de réussite à la capacité de l'IA à porter une stratégie rudimentaire d'un jeu à l'autre.

Malgré tout, Shanahan tient à rester prudent. Cette IA n'est qu'un prototype, n'a affronté qu'une ancienne version de DQN, et le jeu est très simpliste. Quoi qu'il en soit, la possibilité de transférer les connaissances acquises par une IA grâce au sens commun semble révolutionnaire. Il s'agit d'une composante importante de l'intelligence humaine.

Une technologie primordiale pour les voitures autonomes ?

Ce genre d'apprentissage hybride est primordial pour les robots. Un apprentissage puissant, impliquant plusieurs couches de réseaux de neurones, est toutefois difficile à utiliser dans ce domaine à cause du volume de données nécessaires.

En revanche, l'architecture hybride pourrait s'avérer très pertinente dans le domaine des voitures sans pilote. Les véhicules autonomes pourraient utiliser le Deep Learning et le sens commun pour traiter des images filmées par des caméras à partir d'une bibliothèque de règle pré-établies, comme l'obligation de s'arrêter au feu rouge et d'avancer quand il est vert.

Des représentations symboliques similaires au langage humain

De même, la transparence basée sur les symboles d'une architecture hybride est également cruciale pour les voitures sans pilotes. Les symboles sont un aspect très important de la façon dont nous communiquons avec nous-mêmes ou avec d'autres personnes. En Allemagne, la législation sur les voitures autonomes exige que les algorithmes soient en mesure d'expliquer les décisions prises par ces véhicules. En 2018, les citoyens de l'Union européenne auront le droit de demander à un système automatisé d'expliquer ses décisions.

Quoi qu'il en soit, la principale conséquence d'une architecture hybride devrait être la possibilité de permettre aux machines de convertir leurs représentations en symboles réutilisables analogues au langage. L'expérience menée par l'équipe de Shanahan explore seulement la surface des possibilités de cette architecture.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.