Stephen Grossberg - Stephen Grossberg

Stephen Grossberg
Grossberg en juillet 2016.jpg
Grossberg en juillet 2016.
Née ( 1939-12-31 )31 décembre 1939 (81 ans)
New York , New York

Stephen Grossberg (né le 31 décembre 1939) est un scientifique cognitif , un psychologue théoricien et computationnel , un neuroscientifique , un mathématicien , un ingénieur biomédical et un technologue neuromorphique. Il est professeur Wang de systèmes cognitifs et neuronaux et professeur émérite de mathématiques et de statistiques, de sciences psychologiques et cérébrales et de génie biomédical à l'Université de Boston .

Carrière

Première vie et éducation

Grossberg a d'abord vécu à Woodside, dans le Queens , à New York . Son père est décédé d' un lymphome de Hodgkin alors qu'il avait un an. Il a déménagé avec sa mère et son frère aîné, Mitchell, à Jackson Heights , dans le Queens. Il fréquente ensuite le lycée Stuyvesant dans le Lower Manhattan après avoir réussi son concours d'entrée. Il est diplômé premier de sa promotion à Stuyvesant en 1957.

Il a commencé des études de premier cycle au Dartmouth College en 1957, où il a d'abord conçu le paradigme de l'utilisation d'équations différentielles non linéaires pour décrire les réseaux neuronaux qui modélisent la dynamique cérébrale, ainsi que les équations de base que de nombreux scientifiques utilisent à cette fin aujourd'hui. Il a ensuite poursuivi ses études en psychologie et en neurosciences. Il a reçu un BA en 1961 de Dartmouth comme première majeure conjointe en mathématiques et psychologie .

Grossberg est ensuite allé à l'Université de Stanford , dont il a obtenu en 1964 une maîtrise en mathématiques et a été transféré au Rockefeller Institute for Medical Research (maintenant l'Université Rockefeller ) à Manhattan. Grossberg a reçu un doctorat en mathématiques de Rockefeller en 1967 pour une thèse qui prouvait les premiers théorèmes de mémoire adressable à contenu global sur les modèles d'apprentissage neuronal qu'il avait découverts à Dartmouth. Son directeur de thèse était Gian-Carlo Rota .

Entrer dans le monde universitaire

Grossberg a été embauché comme professeur adjoint de mathématiques appliquées au MIT suite aux fortes recommandations de Kac et Rota. En 1969, Grossberg a été promu professeur agrégé après avoir publié une série de résultats conceptuels et mathématiques sur de nombreux aspects des réseaux de neurones.

N'ayant pas été titularisé au MIT, Grossberg a été embauché en tant que professeur titulaire à l'Université de Boston en 1975, où il fait toujours partie du corps professoral aujourd'hui. Pendant son séjour à l'Université de Boston, il a fondé le Département des systèmes cognitifs et neuronaux, plusieurs centres de recherche interdisciplinaires et diverses institutions internationales.

Recherche

Grossberg est l'un des fondateurs des domaines des neurosciences computationnelles , des sciences cognitives connexionnistes et de la technologie neuromorphique. Son travail se concentre sur les principes de conception et les mécanismes qui permettent au comportement des individus, ou des machines, de s'adapter de manière autonome en temps réel à des défis environnementaux inattendus. Cette recherche a inclus des modèles neuronaux de vision et de traitement d'images ; apprentissage d'objets, de scènes et d'événements, reconnaissance de formes et recherche ; audition, parole et langage; traitement et planification de l'information cognitive; l'apprentissage par renforcement et les interactions cognitivo-émotionnelles ; navigation autonome; contrôle adaptatif sensori-moteur et robotique ; neurodynamique auto-organisée ; et troubles mentaux . Grossberg collabore également avec des expérimentateurs pour concevoir des expériences qui testent des prédictions théoriques et comblent des lacunes conceptuellement importantes dans la littérature expérimentale, effectuent des analyses de la dynamique mathématique des systèmes neuronaux et transfèrent des modèles neuronaux biologiques vers des applications en ingénierie et en technologie. Il a publié dix-sept livres ou numéros spéciaux de revues, plus de 500 articles de recherche et possède sept brevets.

Grossberg a étudié comment le cerveau donne naissance à l'esprit depuis qu'il a suivi le cours d'introduction à la psychologie en première année au Dartmouth College en 1957. À cette époque, Grossberg a introduit le paradigme de l'utilisation de systèmes non linéaires d' équations différentielles pour montrer comment les mécanismes cérébraux peuvent donner lieu à des les fonctions. Ce paradigme aide à résoudre le problème classique esprit/corps et constitue le formalisme mathématique de base utilisé aujourd'hui dans la recherche sur les réseaux de neurones biologiques. En particulier, en 1957-1958, n a découvert des équations largement utilisées pour (1) la mémoire à court terme (STM) ou l'activation neuronale (souvent appelées modèles additifs et shunts, ou le modèle de Hopfield après l'application de John Hopfield en 1984 du modèle additif équation); (2) mémoire à moyen terme (MTM), ou accoutumance dépendante de l'activité (souvent appelées portes de transmission habituelles, ou synapses déprimantes après l'introduction de ce terme par Larry Abbott en 1997); et (3) la mémoire à long terme (LTM), ou apprentissage neuronal (souvent appelé apprentissage de la descente la plus raide fermée). Une variante de ces équations d'apprentissage, appelée Instar Learning, a été introduite par Grossberg en 1976 dans Adaptive Resonance Theory et Self-Organizing Maps pour l'apprentissage des filtres adaptatifs dans ces modèles. Cette équation d'apprentissage a également été utilisée par Kohonen dans ses applications de cartes auto-organisées à partir de 1984. Une autre variante de ces équations d'apprentissage, appelée Outstar Learning, a été utilisée par Grossberg à partir de 1967 pour l'apprentissage de modèles spatiaux. Les apprentissages Outstar et Instar ont été combinés par Grossberg en 1976 dans un réseau à trois couches pour l'apprentissage de cartes multidimensionnelles à partir de n'importe quel espace d'entrée à m dimensions vers n'importe quel espace de sortie à n dimensions. Cette application a été appelée Contre-propagation par Hecht-Nielsen en 1987.

S'appuyant sur sa thèse de doctorat Rockefeller de 1964, dans les années 1960 et 1970, Grossberg a généralisé les modèles additif et shunt à une classe de systèmes dynamiques qui incluaient ces modèles ainsi que des modèles biologiques non neuronaux, et a prouvé des théorèmes de mémoire adressables par le contenu pour ce plus général. classe de modèles. Dans le cadre de cette analyse, il a introduit une méthode fonctionnelle de Liapunov pour aider à classer la dynamique limite et oscillatoire des systèmes compétitifs en gardant une trace de quelle population gagne au fil du temps. Cette méthode de Liapunov l'a amené, lui et Michael Cohen, à découvrir en 1981 et à publier en 1982 et 1983 une fonction de Liapunov qu'ils ont utilisée pour prouver que des limites globales existent dans une classe de systèmes dynamiques avec des coefficients d'interaction symétriques qui incluent les modèles additif et shunt. John Hopfield a publié cette fonction de Liapunov pour le modèle additif en 1984. La plupart des scientifiques ont commencé à appeler la contribution de Hopfield le modèle de Hopfield. En 1987, Bart Kosko a adapté le modèle de Cohen-Grossberg et la fonction de Liapunov, qui ont prouvé la convergence globale de STM, pour définir une mémoire associative bidirectionnelle adaptative qui combine STM et LTM et qui converge également globalement vers une limite.

Grossberg a introduit et développé avec ses collègues des concepts fondamentaux, des mécanismes, des modèles et des architectures sur un large éventail de sujets concernant le cerveau et le comportement. Il a collaboré avec plus de 100 doctorants et stagiaires postdoctoraux.

Les modèles que Grossberg a introduits et aidés à développer comprennent :

  • les fondements de la recherche sur les réseaux de neurones : apprentissage compétitif , cartes auto-organisées , stades et champs de masquage (pour la classification), outstars (pour l'apprentissage des modèles spatiaux), avalanches (pour l'apprentissage et la performance de l'ordre série), dipôles fermés (pour le traitement de l'adversaire) ;
  • développement perceptuel et cognitif, cognition sociale, mémoire de travail, traitement de l'information cognitive, planification, estimation numérique et attention : théorie de la résonance adaptative (ART), ARTMAP, STORE, CORT-X, SpaN, LIST PARSE, lisTELOS, SMART, CRIB ;
  • perception visuelle, attention, apprentissage d'objets et de scènes, reconnaissance, remappage prédictif et recherche : BCS/FCS, FACADE, 3D LAMINART, aFILM, LIGHTSHAFT, Motion BCS, 3D FORMOTION, MODE, VIEWNET, dARTEX, ARTSCAN, pARTSCAN, dARTSCAN, 3D ARTSCAN, Recherche ARTSCAN, ARTSCÈNE, Recherche ARTSCÈNE ;
  • streaming auditif, perception, parole et traitement du langage : SPINET, ARTSTREAM, NormNet, PHONET, ARTPHONE, ARTWORD ;
  • dynamique cognitivo-émotionnelle, apprentissage par renforcement, attention motivée et comportement adaptatif : CogEM, START, MOTIVATOR ; synchronisation spectrale ;
  • navigation visuelle et spatiale : SOVEREIGN, STARS, ViSTARS, GRIDSmap, GridPlaceMap, Spectral Spacing ;
  • contrôle sensori-moteur adaptatif des mouvements des yeux, des bras et des jambes : VITE, FLETE, VITEWRITE, DIRECT, VAM, CPG, SACCART, TELOS, SAC-SPEM ;
  • autisme : iSTART

Développement de carrière et d'infrastructures

Étant donné qu'il y avait peu ou pas d'infrastructure pour soutenir les domaines que lui et d'autres pionniers de la modélisation faisaient avancer, Grossberg a fondé plusieurs institutions visant à fournir une formation interdisciplinaire, des recherches et des publications dans les domaines des neurosciences computationnelles, des sciences cognitives connexionnistes et de la technologie neuromorphique. . En 1981, il fonde le Center for Adaptive Systems de l'Université de Boston et en demeure le directeur. En 1991, il a fondé le Département des systèmes cognitifs et neuronaux à l'Université de Boston et en a été le président jusqu'en 2007. En 2004, il a fondé le NSF Center of Excellence for Learning in Education, Science, and Technology (CELEST) et en a été le directeur. jusqu'en 2009.

Toutes ces institutions visaient à répondre à deux questions liées : i) Comment le cerveau contrôle-t-il le comportement ? ii) Comment la technologie peut-elle imiter l'intelligence biologique ?

En outre, Grossberg a fondé et a été le premier président de l'International Neural Network Society (INNS), qui est passée à 3700 membres de 49 États des États-Unis et 38 pays au cours des quatorze mois de sa présidence. La formation de l'INNS a rapidement conduit à la formation de l' European Neural Network Society (ENNS) et de la Japanese Neural Network Society (JNNS). Grossberg a également fondé le journal officiel de l'INNS et en a été le rédacteur en chef de 1988 à 2010. Neural Networks est également le journal d'archives de l'ENNS et du JNNS.

La série de conférences de Grossberg au MIT Lincoln Laboratory a déclenché l'étude nationale des réseaux neuronaux DARPA en 1987-1988, qui a conduit à un intérêt accru du gouvernement pour la recherche sur les réseaux neuronaux. Il a été président général de la première conférence internationale de l'IEEE sur les réseaux de neurones (ICNN) en 1987 et a joué un rôle clé dans l'organisation de la première réunion annuelle de l'INNS en 1988, dont la fusion en 1989 a conduit à la Conférence internationale conjointe sur les réseaux de neurones (IJCNN), qui reste la plus grande réunion annuelle consacrée à la recherche sur les réseaux de neurones. Grossberg a également organisé et présidé la Conférence internationale annuelle sur les systèmes cognitifs et neuronaux (ICCNS) depuis 1997, ainsi que de nombreuses autres conférences dans le domaine des réseaux de neurones.

Grossberg a siégé au comité de rédaction de 30 revues, dont Journal of Cognitive Neuroscience , Behavioral and Brain Sciences , Cognitive Brain Research , Cognitive Science , Neural Computation , IEEE Transactions on Neural Networks , IEEE Expert et International Journal of Humanoid Robotics .

Récompenses

Prix ​​décernés à Grossberg :

  • 1991 Prix de pionnier du réseau neuronal IEEE
  • Prix ​​du leadership de l'INNS 1992
  • 1992 Boston Computer Society Thinking Technology Award
  • 2000 Prix des sciences de l'information de l'Association pour les machines intelligentes
  • 2002 Prix Charles River Laboratories de la Society for Behavioral Toxicology
  • 2003 Prix INNS Helmholtz.

Adhésions :

  • 1990 membre de la Memory Disorders Research Society
  • 1994 Membre de l'American Psychological Association
  • 1996 Membre de la Society of Experimental Psychologists
  • 2002 Membre de l'American Psychological Society
  • Boursier IEEE 2005
  • 2008 Inaugural Fellow de l'American Educational Research Association
  • Boursier INNS 2011

Grossberg a reçu le Norman Anderson Lifetime Achievement Award 2015 de la Society of Experimental Psychologists « pour ses recherches théoriques pionnières sur la façon dont le cerveau donne naissance à l'esprit et ses contributions fondamentales aux neurosciences computationnelles et aux sciences cognitives connexionnistes ». Son discours de remerciement est disponible ici.

Il a reçu le prix Frank Rosenblatt 2017 de l'Institute of Electrical and Electronic Engineers (IEEE) avec la citation suivante : « Pour des contributions à la compréhension de la cognition et du comportement du cerveau et de leur émulation par la technologie ».

Il a remporté le prix Donald O. Hebb 2019 de l'International Neural Network Society, décerné "pour des réalisations exceptionnelles dans l'apprentissage biologique".

Théorie de l'ART

Avec Gail Carpenter , Grossberg a développé la théorie de la résonance adaptative (ART). L'ART est une théorie cognitive et neuronale de la façon dont le cerveau peut apprendre rapidement, se souvenir et reconnaître de manière stable des objets et des événements dans un monde en évolution. ART a proposé une solution au dilemme stabilité-plasticité ; à savoir, comment un cerveau ou une machine peut apprendre rapidement de nouveaux objets et événements sans être tout aussi rapidement obligé d'oublier des souvenirs déjà appris, mais toujours utiles.

ART prédit comment les attentes descendantes apprises concentrent l'attention sur les combinaisons attendues de fonctionnalités, conduisant à une résonance synchrone qui peut conduire à un apprentissage rapide. ART prédit également dans quelle mesure des écarts suffisamment importants entre les modèles de caractéristiques ascendants et les attentes descendantes peuvent conduire à une recherche de mémoire, ou à des tests d'hypothèses, pour des catégories de reconnaissance avec lesquelles mieux apprendre à classer le monde. L'ART définit ainsi un type de système de production auto-organisé.

L'ART a été démontré dans la pratique grâce à la famille de classificateurs ART (par exemple, ART 1, ART 2, ART 2A, ART 3, ARTMAP, flou ARTMAP, ART eMAP, distribué ARTMAP), développé avec Gail Carpenter, qui a été utilisé à grande échelle applications en ingénierie et en technologie où une classification et une prédiction rapides, mais stables et apprises de manière incrémentielle sont nécessaires.

Nouveaux paradigmes informatiques

Grossberg a introduit et dirigé le développement de deux paradigmes informatiques pertinents pour l'intelligence biologique et ses applications :

Informatique complémentaire

Quelle est la nature de la spécialisation cérébrale ? De nombreux scientifiques ont proposé que nos cerveaux possèdent des modules indépendants, comme dans un ordinateur numérique. L'organisation du cerveau en zones anatomiques distinctes et en flux de traitement montre que le traitement cérébral est en effet spécialisé. Cependant, les modules indépendants devraient être capables de calculer entièrement leurs processus particuliers par eux-mêmes. De nombreuses données comportementales s'opposent à cette possibilité.

L'informatique complémentaire (Grossberg, 2000, 2012) concerne la découverte que des paires de flux de traitement corticaux parallèles calculent des propriétés complémentaires dans le cerveau. Chaque flux a des forces et des faiblesses de calcul complémentaires, tout comme dans les principes physiques comme le principe d'incertitude de Heisenberg. Chaque flux cortical peut également posséder plusieurs étapes de traitement. Ces étapes réalisent une résolution hiérarchique de l'incertitude . « Incertitude » signifie ici que le calcul d'un ensemble de propriétés à un stade donné empêche le calcul d'un ensemble complémentaire de propriétés à ce stade.

L'informatique complémentaire propose que l'unité de calcul du traitement cérébral qui a une signification comportementale consiste en des interactions parallèles entre des flux de traitement corticaux complémentaires avec plusieurs étapes de traitement pour calculer des informations complètes sur un type particulier d'intelligence biologique.

Informatique laminaire

Le cortex cérébral, siège de l'intelligence supérieure dans toutes les modalités, est organisé en circuits en couches (souvent six couches principales) qui subissent des interactions caractéristiques ascendantes, descendantes et horizontales. Comment les spécialisations de cette conception laminaire partagée incarnent-elles différents types d'intelligence biologique, y compris la vision, la parole et le langage, et la cognition ? L'informatique laminaire propose comment cela peut se produire (Grossberg, 1999, 2012).

L'informatique laminaire explique comment la conception laminaire du néocortex peut réaliser les meilleures propriétés du traitement anticipatif et de rétroaction, du traitement numérique et analogique, du traitement ascendant basé sur les données et du traitement descendant attentif basé sur des hypothèses. L'intégration de telles conceptions dans des puces VLSI promet de permettre le développement d'algorithmes autonomes adaptatifs de plus en plus polyvalents pour de multiples applications.

Voir également

Les références

Liens externes