机器学习

2.1 导论

2019-06-20
| 机器学习 | | 概率论 , 贝叶斯 , 不确定性 | Comment 评论

返回本章目录

概率论只不过是把常识归纳为计算问题。 - 皮埃尔·拉普拉斯,1812年

在前一章中,我们看到了概率如何在机器学习中发挥有用的作用。 在本章中,我们将更详细地讨论概率论。 我们没有足够的空间来详细说明 - 为此,你最好查阅一些关于这个主题的优秀教科书,例如(Jaynes 2003; Bertsekas和Tsitsiklis 2008; Wasserman 2004)。 但我们将简要回顾一下您在后面章节中需要的许多关键想法。

...

第二章 概率

2019-06-20
| 机器学习 | Comment 评论

第二章 概率 本节中的目录: 2.1 导论 2.2 概率论的简要回顾 2.3 一些常见的离散分布 2.4 一些常见的连续分布 2.5 联合概率分布 2.6 Transformations of random variables 2.7 Monte Carlo approximation 2.8 Information theory Exercises

1.3 无监督学习

2019-06-17
| 机器学习 | | 无监督学习 , 聚类 , 降维 | Comment 评论

返回本章目录

我们现在考虑无监督学习,我们只给出输出数据,没有任何输入。目标是在数据中发现“有趣的结构”;这有时被称为知识发现。与监督学习不同,我们没有被告知每个输入所期望输出是什么。相反,我们将我们的任务形式化为密度估计中的一种,也就是说,我们想要构建形如 \(p(\boldsymbol{x}_i | \boldsymbol{\theta})\) 的模型。与有监督情形有两点不同。首先,我们写了 \(p(\boldsymbol{x}_i | \boldsymbol{\theta})\) 而不是 \(p(y_i | \boldsymbol{x}_i,\boldsymbol{\theta})\) ;也就是说,监督学习是条件密度估计,而无监督学习是无条件密度估计。其次, \(\boldsymbol{x}_i\) 是特征向量,因此我们需要创建多变量概率模型。相比之下,在监督学习中, \(y_i\) 通常只是我们试图预测的单个变量。这意味着对于大多数监督学习问题,我们可以使用单变量概率模型(参数依赖的输入),这显着简化了问题。 (我们将在第19章讨论多输出分类,我们将在其中看到它还涉及多变量概率模型。)

...

1.1 机器学习:什么和为什么?

2019-06-15
| 机器学习 | | 监督学习 , 无监督学习 , 强化学习 | Comment 评论

返回本章目录

我们淹没在信息中,渴望知识。 — John Naisbitt。

我们正在进入大数据时代。 例如,有大约1万亿个网页; YouTube一个小时的视频上传,每天相当于10年的内容;1000多人的基因组,每个人的长度为3.8×109个碱基对,已被各种实验室测序; 沃尔玛每小时处理超过1M笔交易,数据库包含超过2.5千兆字节(2.5×1015)的信息(Cukier 2010); 等等。

...

第一章 导论

2019-06-15
| 机器学习 | Comment 评论

第一章 导论 本节中的目录: 1.1 机器学习:什么和为什么? 1.2 监督学习 1.3 无监督学习 1.4 机器学习的一些基本概念 Exercises