L’autre face de l’IA: les réseaux de neurones artificiels

Avec le soutien de

André Malraux disait «le XXIème siècle sera spirituel ou ne sera pas», cela nous interpelle, quelle que soit notre place dans la société. Ma conviction depuis plus de 20 ans est que ce XXIème siècle sera aussi celui des bouleversements induits par l’introduction constante de nouvelles technologies, dont certaines seules ou reliées forment des GPT (technologies à portée générale) qui transforment nos vies et nos liens, notamment au travail. Il est important que chacun puisse appréhender à minima ces phénomènes technologiques, prenne conscience des impacts économiques, sociaux ou politiques, pour soi, pour la relation aux autres, pour le pays, et se projette dans l’avenir. Cette tribune est alors un espace de partage de connaissances, d’idées sur des sujets parfois compliqués, dont on essaiera de parler simplement afin que chaque citoyen puisse comprendre les enjeux ou participer aux débats. «Partager pour réussir» ou «share to win» telle est notre mantra pour ce siècle si décisif pour l’espèce humaine ou devant nos yeux «homo sapiens sapiens» doit reprendre sa marche à pieds afin de devenir un autre s’il veut ne pas être inutile, déclassé, puis effacé ! 

Les réseaux de neurones artificiels au coeur de nos produits

L’intelligence artificielle (IA) se matérialise sous la forme de logiciels, qui sont intégrés au coeur des produits que nous utilisons. Lorsque nous demandons une information à une Google Home, un ordinateur ou à notre téléphone portable en parlant, nous recevons une réponse par le biais d’une IA, qui bien souvent, utilise des réseaux de neurones artificiels pour nous «comprendre». Mais qu’est-ce qu’un réseau de neurones artificiels ? Comment fonctionnentils? Où nous conduisent-ils ? Je vous ai déjà esquissé l’histoire de quelques personnes, qui ont posé le terme et la discipline de l’IA en 1956, mais sachez que d’autres savants, bien avant, rêvaient déjà de modéliser la pensée humaine ou de concevoir des machines capables de rivaliser avec notre intelligence. Une des directions retenues par des scientifiques a été d’imiter le fonctionnement biologique de notre cerveau et de nos neurones naturels à travers des programmes informatiques. Ainsi donc sont apparus les réseaux de neurones artificiels.

Du naturel à l’artificiel !

Notre cerveau, moteur de l’intelligence humaine, doit notamment sa vivacité aux neurones dont il est abondamment doté. Nous disposons de plus de 80 milliards de neurones et chacun d’eux possède plus de 7 000 points de connexions. La structure du neurone naturel est trop riche pour qu’un système informatique le copie en l’état. Des chercheurs ont alors successivement imaginé des structures de neurones «artificiels», basées sur des modèles mathématiques épurés, pour produire des systèmes apprenants. Le premier modèle de neurone «biologique» qui a marqué les esprits est celui du «neurone formel binaire» de McCulloch et Pitts en 1943 avec son activation par seuil. Cela a permis de franchir des paliers significatifs en passant de classifieurs linéaires à des classifieurs avec des fonctions non linéaires. Le pas a ensuite été franchi pour associer des neurones, afin de produire des couches de neurones, des réseaux de neurones artificiels, puis de mettre en place l’apprentissage dans les couches de neurones grâce aux méthodes de rétropropagation de l’erreur permettant l’ajustement des poids synaptiques. Somme toute, une imitation lacunaire et simplifiée de certains principes du fonctionnement du neurone naturel, qui permet l’émergence d’un neurone artificiel connecté.

Une approche mathématique simple, mais lourde

Seulement on n’imite pas si facilement le fonctionnement de nos méninges ! Le processus d’apprentissage pour les réseaux de neurones à plusieurs couches est réalisé en adaptant les poids synaptiques en diffusant le gradient de l’erreur en sens inverse. Cela nécessite des jeux de données d’apprentissage pertinents et un ajustement empirique du taux d’apprentissage. En fait, on avance par tâtonnements : l’approche utilisée est celle de la descente de gradient, qui mène parfois à des résultats non optimaux, il faut alors entraîner des réseaux avec plusieurs points d’entrées. Bref, l’approche mathématique faite d’aller-retour est lourde, même si les calculs sont relativement simples. Plus on augmente le nombre de couches de neurones, plus on s’expose à des problèmes d’ajustements, de disparition de gradients, sans parler des temps de calcul, qui s’allongent considérablement. Les chercheurs ont toutefois continué leur travail au fil du temps par des approches multicouches dites d’apprentissage profond ou Deep Learning, mais en adoptant des stratégies de combinaisons d’apprentissages non supervisés et supervisés avec rétropropagation de l’erreur. L’approche scientifique aurait pu rester dans les tiroirs si la disponibilité de bases de données d’entraînements massifs et les capacités de calcul offertes par les Graphical Processing Units (GAFA) n’avaient changé la donne.

Les réseaux de neurones artificiels ont de l’avenir !

Les GAFA se sont positionnés sur ces approches par réseaux de neurones multicouches de type Deep Learning depuis 2010, en particulier sur les services de reconnaissance d’image ou de mots. Même si ces méthodes restent lourdes, coûteuses en ressources et peu optimales, elles donnent des résultats impressionnants qui sont autant de moyens de faire des démonstrations de puissances technologiques. Les communications sont virales et drainent les forces vives des écosystèmes, qui ont déjà oublié le froid jeté par la retentissante victoire d’AlphaGo sur le champion du monde humain du jeu de go. Il est probable que les Deep Learning ou les réseaux convolutifs ont de l’avenir, mais on sait déjà que le futur se bâtira avec des approches différentes, rendues possibles par l’accélération des méthodes d’apprentissage non supervisées, des processeurs plus véloces de type quantique, et des nouveaux algorithmes inspirés ou non de la biologie. Nous ne sommes qu’au début d’essais au coeur de périodes de transitions induites par des convergences technologiques : qui survivra verra !

Publicité
Publicité
Rejoignez la conversation en laissant un commentaire ci-dessous.

Ailleurs sur lexpress.mu

Les plus...

  • Lus
  • Commentés
  pages consultées aujourd'hui Statistiques et options publicitaires