Transfert d'apprentissage - Transfer learning

L'apprentissage par transfert (TL) est un problème de recherche en apprentissage automatique (ML) qui se concentre sur le stockage des connaissances acquises lors de la résolution d'un problème et de son application à un problème différent mais connexe. Par exemple, les connaissances acquises en apprenant à reconnaître les voitures pourraient s'appliquer lorsque l'on essaie de reconnaître les camions. Ce domaine de recherche est lié à la longue histoire de la littérature psychologique sur le transfert des apprentissages , bien que les liens pratiques entre les deux domaines soient limités. D'un point de vue pratique, la réutilisation ou le transfert d'informations provenant de tâches apprises précédemment pour l'apprentissage de nouvelles tâches a le potentiel d'améliorer considérablement l'efficacité de l'échantillon d'un agent d' apprentissage par renforcement .

Histoire

En 1976, Stevo Bozinovski et Ante Fulgosi ont publié un article traitant explicitement de l'apprentissage par transfert dans la formation aux réseaux de neurones. L'article donne un modèle mathématique et géométrique de l'apprentissage par transfert. En 1981, un rapport a été présenté sur l'application de l'apprentissage par transfert dans la formation d'un réseau de neurones sur un ensemble de données d'images représentant des lettres de terminaux informatiques. L'apprentissage par transfert positif et négatif a été démontré expérimentalement.

En 1993, Lorien Pratt a publié un article sur le transfert dans l'apprentissage automatique , formulant l'algorithme de transfert basé sur la discriminabilité (DBT).

En 1997, Pratt et Sebastian Thrun ont édité un numéro spécial de Machine Learning consacré à l'apprentissage par transfert, et en 1998, le domaine avait progressé pour inclure l' apprentissage multitâche , ainsi qu'une analyse plus formelle de ses fondements théoriques. Learning to Learn , édité par Thrun et Pratt, est une revue de 1998 sur le sujet.

L'apprentissage par transfert a également été appliqué dans les sciences cognitives , avec Pratt en tant qu'invité d'édition d'un numéro de Connection Science sur la réutilisation des réseaux de neurones par transfert en 1996.

Andrew Ng a déclaré dans son didacticiel NIPS 2016 que le TL sera le prochain moteur du succès commercial du ML après un apprentissage supervisé pour souligner l'importance du TL.

Définition

La définition de l'apprentissage par transfert est donnée en termes de domaines et de tâches. Un domaine se compose : d'un espace de caractéristiques et d'une distribution de probabilité marginale , où . Étant donné un domaine spécifique, , une tâche se compose de deux composants : un espace d'étiquettes et une fonction prédictive objective . La fonction est utilisée pour prédire l'étiquette correspondante d'une nouvelle instance . Cette tâche, notée , est apprise à partir des données d'apprentissage constituées des paires , où et .

Étant donné un domaine source et une tâche d'apprentissage , un domaine cible et une tâche d'apprentissage , où , ou , l'apprentissage par transfert vise à aider à améliorer l'apprentissage de la fonction prédictive cible en utilisant les connaissances dans et .

Applications

Des algorithmes sont disponibles pour l'apprentissage par transfert dans les réseaux logiques de Markov et les réseaux bayésiens . L'apprentissage par transfert a également été appliqué à la découverte de sous-types de cancer, à l' utilisation des bâtiments , au jeu général , à la classification de textes , à la reconnaissance des chiffres, à l'imagerie médicale et au filtrage des spams .

En 2020, il a été découvert qu'en raison de leurs natures physiques similaires, l'apprentissage par transfert est possible entre les signaux électromyographiques (EMG) des muscles lors de la classification des comportements des ondes cérébrales électroencéphalographiques (EEG) du domaine de reconnaissance des gestes au domaine de reconnaissance de l'état mental. Il a également été noté que cette relation fonctionnait vice versa, montrant que l'EEG peut également être utilisé pour classer l'EMG en plus. Les expériences ont noté que la précision des réseaux de neurones et des réseaux de neurones convolutifs était améliorée grâce à l'apprentissage par transfert à la fois à la première époque (avant tout apprentissage, c'est-à-dire par rapport à la distribution de poids aléatoire standard) et à l'asymptote (la fin du processus d'apprentissage) . C'est-à-dire que les algorithmes sont améliorés par l'exposition à un autre domaine. De plus, l'utilisateur final d'un modèle pré-entraîné peut modifier la structure des couches entièrement connectées pour obtenir des performances supérieures.

Voir également

Les références

Sources