Issue
J. Phys. France
Volume 51, Number 5, mars 1990
Page(s) 387 - 408
DOI https://doi.org/10.1051/jphys:01990005105038700
J. Phys. France 51, 387-408 (1990)
DOI: 10.1051/jphys:01990005105038700

Prosopagnosia in high capacity neural networks storing uncorrelated classes

S. Franz1, 2, D.J. Amit3 et M. A. Virasoro2

1  Istituto di Psicologia del C.N.R., Viale K. Marx 14, Roma, Italy
2  Dipartimento di Fisica dell' Università di Roma « La Sapienza », Piazzale Aldo Moro 4, Roma, Italy
3  I.N.F.N., Dipart. di Fisica, Università di Roma « La Sapienza », Roma, Italy


Abstract
We display a synaptic matrix that can efficiently store, in attractor neural networks (ANN) and perceptrons, patterns organized in uncorrelated classes. We find a storage capacity limit increasing with m, the overlap of a pattern with its class ancestor, and diverging as m → 1. The probability distribution of the local stability parameters is studied, leading to a complete analysis of the performance of a perceptron with this synaptic matrix, and to a qualitative understanding of the behavior of the corresponding ANN. The analysis of the retrieval attractor of the ANN is completed via statistical mechanics. The motivation for the construction of this matrix was to make possible a study of a model for prosopagnosia, i.e. the shift from individual to class recall, under lesion, i.e. a random deterioration of the synaptic efficacies. The retrieval properties of the model with the proposed synaptic matrix, affected by random synaptic dilution are studied in detail. Finally we compare our synaptic matrix with a generic matrix which has all positive stability parameters.


Résumé
On met en évidence une matrice synaptique qui stocke efficacement les patterns organisés en catégories non corrélées dans les réseaux neuronaux à attracteurs et les perceptrons. La capacité de stockage limite augmente avec le recouvrement m d'un pattern avec sa catégorie ancestrale, et diverge lorsque m tend vers 1. La distribution de probabilité des paramètres de stabilité locaux est étudiée, et conduit à une analyse complète des performances d'un perceptron en fonction de sa matrice synaptique, ainsi qu'à une compréhension qualitative du comportement du réseau neuronal correspondant. L'analyse de l'attracteur du réseau est complétée à l'aide de la mécanique statistique. La motivation d'une telle construction est de rendre possible l'étude d'un modèle de prosopagnosie : le passage du rappel individuel à celui de catégories lors de lésions, c'est-à-dire d'une détérioration aléatoire des efficacités synaptiques. Les propriétés de rappel du modèle en fonction de la matrice synaptique proposée sont étudiées en détail. Enfin nous comparons notre matrice synaptique à une matrice générique dont tous les paramètres de stabilité sont positifs.

PACS
8718S - Neural networks.
0705M - Neural networks, fuzzy logic, artificial intelligence.

Key words
neural nets