bibtype J - Journal Article
ARLID 0311199
utime 20240103190335.0
mtime 20090326235959.9
WOS 000259846600006
DOI 10.1016/j.neunet.2008.03.002
title (primary) (eng) Iterative principles of recognition in probabilistic neural networks
specification
page_count 10 s.
serial
ARLID cav_un_epca*0257310
ISSN 0893-6080
title Neural Networks
volume_id 21
volume 6 (2008)
page_num 838-846
publisher
name Elsevier
title (cze) Iterativní principy rozpoznávání v pravděpodobnostních neuronových sítích
keyword Probabilistic neural networks
keyword Distribution mixtures
keyword EM algorithm
keyword Recognition of numerals
keyword Recurrent reasoning
author (primary)
ARLID cav_un_auth*0101091
name1 Grim
name2 Jiří
institution UTIA-B
full_dept Department of Pattern Recognition
fullinstit Ústav teorie informace a automatizace AV ČR, v. v. i.
author
ARLID cav_un_auth*0230019
name1 Hora
name2 Jan
institution UTIA-B
fullinstit Ústav teorie informace a automatizace AV ČR, v. v. i.
cas_special
project
project_id 2C06019
agency GA MŠk
country CZ
ARLID cav_un_auth*0216518
project
project_id 1M0572
agency GA MŠk
ARLID cav_un_auth*0001814
project
project_id GA102/07/1594
agency GA ČR
ARLID cav_un_auth*0228611
research CEZ:AV0Z10750506
abstract (eng) When considering the probabilistic approach to neural networks in the framework of statistical pattern recognition we assume approximation of class-conditional probability distributions by finite mixtures of product components. The mixture components can be interpreted as probabilistic neurons in neurophysiological terms and, in this respect, the fixed probabilistic description contradicts the well known short-term dynamic properties of biological neurons. By introducing iterative schemes of recognition we show that some parameters of probabilistic neural networks can be /released/ for the sake of dynamic processes without disturbing the statistically correct decision making. In particular, we can iteratively adapt the mixture component weights or modify the input pattern in order to facilitate correct recognition. Both procedures are shown to converge monotonically as a special case of the well known EM algorithm for estimating mixtures.
abstract (cze) Pravděpodobnostní přístup patří k nejnovějším metodám návrhu neuronových sítí. Základní paradigma pravděpodobnostního přístupu je jiné než v případě standardních metod. Návrh „klasické“ neuronové sítě zpravidla vychází z formálního modelu neuronu a předpokládá nějaký způsob propojení neuronů v síti. Adaptace neuronové sítě pro daný účel (rozpoznávání vstupních objektů, aproximaci výstupní funkce a pod.) probíhá na základě nějakého algoritmu učení, který je navržen heuristicky, nebo je odvozen z vhodně zvoleného kriteria optimální funkce sítě.
reportyear 2009
RIV IN
permalink http://hdl.handle.net/11104/0162881
mrcbT16-f 2.838
mrcbT16-g 0.208
mrcbT16-h 9
mrcbT16-i 0.01182
mrcbT16-j 0.93
mrcbT16-k 5706
mrcbT16-l 144
mrcbT16-q 87
mrcbT16-s 1.102
mrcbT16-y 32.14
mrcbT16-x 2.98
arlyear 2008
mrcbU34 000259846600006 WOS
mrcbU63 cav_un_epca*0257310 Neural Networks 0893-6080 1879-2782 Roč. 21 č. 6 2008 838 846 Elsevier