<?xml version="1.0" encoding="utf-8"?>
<?xml-stylesheet type="text/xsl" href="style/detail_T.xsl"?>
<bibitem type="C">   <ARLID>0329752</ARLID> <utime>20240111140725.9</utime><mtime>20090929235959.9</mtime>         <title language="eng" primary="1">On the Estimation of Mutual Information</title>  <specification> <page_count>7 s.</page_count> <media_type>www</media_type> </specification>   <serial><ARLID>cav_un_epca*0329301</ARLID><ISBN>978-80-7015-004-7</ISBN><title>ROBUST 2008</title><part_num/><part_title/><page_num>263-269</page_num><publisher><place>Praha</place><name>JČMF</name><year>2009</year></publisher><editor><name1>Antoch</name1><name2>J.</name2></editor><editor><name1>Dohnal</name1><name2>G.</name2></editor></serial>   <title language="cze" primary="0">O odhadu vzájemné informace</title>    <keyword>mutual information</keyword>   <keyword>redundancy</keyword>   <keyword>adaptive histogram</keyword>    <author primary="1"> <ARLID>cav_un_auth*0205790</ARLID> <name1>Marek</name1> <name2>Tomáš</name2> <institution>UTIA-B</institution>  <fullinstit>Ústav teorie informace a automatizace AV ČR, v. v. i.</fullinstit> </author> <author primary="0"> <ARLID>cav_un_auth*0101212</ARLID> <name1>Tichavský</name1> <name2>Petr</name2> <institution>UTIA-B</institution> <full_dept>Department of Stochastic Informatics</full_dept>  <fullinstit>Ústav teorie informace a automatizace AV ČR, v. v. i.</fullinstit> </author>   <source> <source_type>pdf</source_type> <url>http://library.utia.cas.cz/separaty/2009/SI/marek-on the estimation of mutual information.pdf</url> <source_size>17365 kB</source_size> </source>        <cas_special> <project> <project_id>1M0572</project_id> <agency>GA MŠk</agency> <ARLID>cav_un_auth*0001814</ARLID> </project> <research> <research_id>CEZ:AV0Z10750506</research_id> </research>  <abstract language="eng" primary="1">The mutual information is useful measure of a random vector component dependence. It is important in many technical applications. The estimation methods are often based on the well known relation between the mutual information and the appropriate entropies. In 1999 Darbellay and Vajda proposed a direct estimation methods. In this paper we compare some available estimation methods using different 2-D random distributions.</abstract> <abstract language="cze" primary="0">Vzájemná informace je hojně užívanou mírou vzájemné závislosti jednotlivých složek vícerozměrných náhodných vektorů. Časté uplatnění nachází především v inženýrských aplikacích. Metody odhadu vzájemné informace většinou vychází ze známého vztahu mezi vzájemnou informací a entropiemi příslušných rozdělení, ale vzájemnou informaci je možné odhadnout také přímo. Na příkladech různých typů dvojrozměrných rozdělení srovnáme některé dostupné metody odhadu vzájemné informace.</abstract>  <action target="EUR"> <ARLID>cav_un_auth*0242765</ARLID> <name>ROBUST 2008. Letní škola JČMF /15./</name>  <place>Pribylina</place> <dates>08.09.2008-12.09.2008</dates>  <country>SK</country> </action>    <reportyear>2010</reportyear>  <RIV>BA</RIV>      <permalink>http://hdl.handle.net/11104/0175693</permalink>        <arlyear>2009</arlyear>       <unknown tag="mrcbU56"> pdf 17365 kB </unknown> <unknown tag="mrcbU63"> cav_un_epca*0329301 ROBUST 2008 978-80-7015-004-7 263 269 Praha JČMF 2009 </unknown> <unknown tag="mrcbU67"> Antoch J. 340 </unknown> <unknown tag="mrcbU67"> Dohnal G. 340 </unknown> </cas_special> </bibitem>