3.2 贝叶斯概念学习
考虑孩子如何学习理解单词的含义,例如“狗”。据推测,孩子的父母指出了这个概念的正面例子,说“看着可爱的小狗!”或“小心小狗”等等。然而,他们提供反面的例子是不太可能的,“看看那只非狗“?。当然,在积极的学习过程中可能会得到负面的例子 - 孩子说“看狗”,父母说“那是猫,亲爱的,不是狗” - 但心理学研究表明,人们可以仅从正面例子来学习概念(Xu和Tenenbaum 2007)。
...考虑孩子如何学习理解单词的含义,例如“狗”。据推测,孩子的父母指出了这个概念的正面例子,说“看着可爱的小狗!”或“小心小狗”等等。然而,他们提供反面的例子是不太可能的,“看看那只非狗“?。当然,在积极的学习过程中可能会得到负面的例子 - 孩子说“看狗”,父母说“那是猫,亲爱的,不是狗” - 但心理学研究表明,人们可以仅从正面例子来学习概念(Xu和Tenenbaum 2007)。
...在第2.2.3.2中,我们讨论了如何对特征矢量 \(\boldsymbol{x}\) 进行分类: 应用贝叶斯法则得到形如下式的生成式分类器:
\[ p(y=c | \boldsymbol{x},\boldsymbol{\theta}) \propto p(\boldsymbol{x} | y=c ,\boldsymbol{\theta}) p(y=c |\boldsymbol{\theta}) \tag{3.1} \] ...第三章 基于离散数据的生成式模型 本节中的目录: 3.1 引言 3.2 贝叶斯概念学习 3.3 贝塔-二项模型 3.4 狄利克雷-多项模型 3.5 朴素贝叶斯分类器 Exercises
返回本章目录
返回本章目录
返回本章目录
返回本章目录
到目前为止,我们一直专注于建模单变量概率分布。 在本节中,我们开始讨论在多个相关随机变量上建立联合概率分布的更具挑战性的问题; 这将是本书的核心主题。
联合概率分布形如 \(p(x_1,\dots,x_D),D>1\) ,并且模拟变量之间的(随机)关系。 如果所有变量都是离散的,我们可以将联合分布表示为一个大的多维数组,每个维度有一个变量。 但是,定义这种模型所需的参数数量是 \(O(K^D)\) ,其中K是每个变量的状态数。
...在本节中,我们展现了一些常用的单变量(一维)连续概率分布。
...在本节中,我们将回顾在离散状态空间(包括有限状态和可数无限状态)上定义的一些常用参数分布。
...