Popis:
Má-li regresní model s pevnou strukturou dobře reflektovat modelovanou realitu, je často potřeba uvolnit jeho parametry a umožnit jejich změny. Za předpokladu, že se parametry mění v čase pomalu, tj. jejich nová hodnota leží velice blízko hodnotě předešlé, lze uplatnit přístup zapomínání. To zahrnuje zejména metody založené na exponenciálním zapomínání, charakterizované zploštěním hustoty pravděpodobnosti parametrů. Tyto metody ovšem aplikují jednotný faktor na celou hustotu pravděpodobnosti parametrů, tedy na všechny parametry stejně. Pokud se jeden parametr mění rychleji než druhý, může v extrémním případě v důsledku rychlejšího zapomínání dojít ke ztrátě informace o pomaleji se měnícím parametru. Při pomalejším zapomínání naopak model nemusí dostatečně reflektovat změny variabilnějšího parametru.
Předpokládaná metoda parciálního zapomínání umožňuje aplikovat různou míru zapomínání na jednotlivé parametry regresního modelu. Výchozí myšlenka spočívá v neznámé skutečné GiW hustotě pravděpodobnosti parametrů. Tu aproximujeme pomocí hypotéz o variabilitě jednotlivých parametrů. Každá hypotéza definuje, zda se parametry mění a jaká je v tom případě jejich konfigurace a výsledná hustota pravděpodobnosti. Pravděpodobnost nástupu hypotézy je zadána jí přidělenou vahou. Směs vytvořená konvexní kombinací hustot podle hypotéz potom aproximuje neznámou skutečnou hustotu pravděpodobnosti parametrů a cílem je najít její nejlepší aproximaci o stejném rozdělení, danou minimem střední hodnoty Kullback-Leiblerovy divergence.
V rámci semináře bude nastíněno odvození metody parciálního zapomínání a ukázáno porovnání s metodou exponenciálního zapomínání. Rovněž bude pojednáno o výhodách a nevýhodách metody a jejím plánovaném vývoji.