Notes de lecture #3 : l’apprentissage continu
Le monde est complexe et en constante évolution. Par conséquent, nous devons constamment nous y adapter en apprenant de nouvelles choses afin de rester à jour. Que ce soit des nouvelles technologies, des nouvelles crises, des nouvelles lois, des nouvelles cultures… Le monde est un endroit dynamique où rester immobile signifie reculer.
L’intelligence artificielle (IA) a le même problème. La plupart des IA sont formées pour résoudre une tâche par l’exposition de données réelles. Mais une fois que l’IA est formée, le monde change et l’IA doit rester à jour pour continuer à bien fonctionner. Par exemple, une IA formée pour détecter des spams dans les e-mail à l’aide de données datant d’il y a 50 ans, aura dur de faire son travail aujourd’hui.
Ainsi, l’apprentissage continu est un domaine grandissant dans la recherche sur l’IA. Son objectif est de développer des protocoles de formation pour que les IA puissent suivre un monde en évolution. Cependant, ce n’est pas aussi simple que d’alimenter l’IA continuellement avec de nouvelles données. Le gros problème dans ce domaine est le phénomène “d’oubli catastrophique”. Le fait que les IA ont tendance à oublier les anciennes connaissances en incorporant de nouvelles. Jusqu’à présent, de nombreuses tentatives ont été réalisées pour atténuer ce problème, mais avec peu de succès.
Notes de lecture
Au cours de ma récente exploration de la literature scientifique, j’ai trouvé quelques articles sur le sujet que j’ai trouvés intéressants. Passons-les en revue un par un :
VERS L’APPRENTISSAGE CONTINU DES MODÈLES LINGUISTIQUES
Cet article traite de la nécessité d’un apprentissage continu pour les modèles linguistiques. Ces modèles sont entraînés dans le but de comprendre la langue humaine. Cela permet de faire de la traductions automatiques, de créer chatbots ou d’étudier des textes anciens. Au fur et à mesure que le monde change, les mots que nous utilisons pour le décrire changent aussi. Par conséquent, les modèles linguistiques doivent être constamment mis à jour pour tenir compte des nouveaux mots, nouvelles expressions et des changements dans le sens des mots. Cependant, il existe aussi des connaissances qui ne doivent pas être oubliées lors de la mise à jour du modèle comme la syntaxe. Par conséquent, les auteurs de cet article ont élaboré une procédure d’évaluation pour mesurer la quantité de connaissances acquises et oubliées. Cet article constitue donc un excellent point de départ pour l’étude de l’apprentissage continu dans la NLP.
Apprentissage continu robuste par le biais d’un réseau neuronal bayésien progressif
Cet article propose une approche d’architecture dynamique pour l’apprentissage continu. Les auteurs ont développé un procédé par lequel un réseau neuronal peut grandir ou rétrécir tout au long du processus d’apprentissage. Cela garantit que le réseau utilise efficacement ses ressources pour éviter l’oublis catastrophique. Leurs expériences montrent que ces méthodes dynamiques donnent de meilleurs résultats que les architectures statiques.
Les grands réseaux neuronaux oublient moins les catastrophes
L’architecture compte dans l’apprentissage continu
Ces deux articles étudient l’effet de diverses architectures et techniques d’apprentissage sur l’oubli catastrophique dans l’apprentissage continu. Les auteurs ont observé que la largeur et la profondeur des réseaux de neurones ainsi que l’utilisation de couches de normalisation et de pooling ont des effets très significatifs. Ces résultats peuvent être utiles pour développer de meilleurs modèles et ouvrir la voie à plus d’investigation sur les sources de l’oubli catastrophique.
Est-ce que les scénarios actuel sont suffisant pour l’apprentissage continu?
Cet article remet en question la tendance actuelle de la littérature sur l’apprentissage continu qui consiste à expérimenter principalement sur des scénarios de catégories incrémentale, où les catégories présentes dans une expérience ne sont jamais revisitées. Cela veut dire que l’on ne présente pas de données passé au model. Les auteurs avancent qu’une focalisation excessive sur ce contexte pourrait limiter les recherches futures sur l’apprentissage continu, puisque ces scénarios incrémentaux exacerbent artificiellement l’oubli catastrophique. Ils plaident pour une étude plus approfondie de scénarios alternatifs d’apprentissage continu, dans lesquels la répétition d’ancienne données est intégrée au processus d’entrainement.
Comment apprendre quand les données réagissent graduellement à votre modèle
Comme nous l’avons compris, avec le temps, les modèles peuvent devenir obsolète. Cependant, ils peuvent aussi avoir un impact sur les données futurs. Ce document examine les situations où les données réagissent au déploiement d’un modèle. Les auteurs soutiennent que, dans certains cas, les décisions d’un model pourrait avoir une impact sur les données future. Par exemple, sur YouTube, les créateurs finissent pas comprendre ce que l’algorithme de recommandation aime et ainsi ils modifient leur contenu en conséquence. Ainsi, le modèle lui-même pourrait être entrainé afin de réagir à l’impact qu’il cause sur les données. Les auteurs de cet articles proposent donc une méthode pour améliorer l’apprentissage dans ce contexte.