机器学习

3.2 贝叶斯概念学习

2019-06-28
| 机器学习 | | 概念学习 , 拟然 , 先验 , 后验 | Comment 评论

返回本章目录

考虑孩子如何学习理解单词的含义,例如“狗”。据推测,孩子的父母指出了这个概念的正面例子,说“看着可爱的小狗!”或“小心小狗”等等。然而,他们提供反面的例子是不太可能的,“看看那只非狗“?。当然,在积极的学习过程中可能会得到负面的例子 - 孩子说“看狗”,父母说“那是猫,亲爱的,不是狗” - 但心理学研究表明,人们可以仅从正面例子来学习概念(Xu和Tenenbaum 2007)。

...

3.1 引言

2019-06-27
| 机器学习 | | 特征矢量 , 贝叶斯 | Comment 评论

返回本章目录

在第2.2.3.2中,我们讨论了如何对特征矢量 \(\boldsymbol{x}\) 进行分类: 应用贝叶斯法则得到形如下式的生成式分类器:

\[ p(y=c | \boldsymbol{x},\boldsymbol{\theta}) \propto p(\boldsymbol{x} | y=c ,\boldsymbol{\theta}) p(y=c |\boldsymbol{\theta}) \tag{3.1} \] ...

2.5 联合概率分布

2019-06-24
| 机器学习 | | 分布 , 协方差 , 相关性 | Comment 评论

返回本章目录

到目前为止,我们一直专注于建模单变量概率分布。 在本节中,我们开始讨论在多个相关随机变量上建立联合概率分布的更具挑战性的问题; 这将是本书的核心主题。

联合概率分布形如 \(p(x_1,\dots,x_D),D>1\) ,并且模拟变量之间的(随机)关系。 如果所有变量都是离散的,我们可以将联合分布表示为一个大的多维数组,每个维度有一个变量。 但是,定义这种模型所需的参数数量是 \(O(K^D)\) ,其中K是每个变量的状态数。

...