2.2 概率论的简要回顾
本节是对概率论基础知识的简要回顾,仅仅是对可能“荒疏”的读者的复习。 已经熟悉这些基础知识的读者可以安全地跳过本节。
...本节是对概率论基础知识的简要回顾,仅仅是对可能“荒疏”的读者的复习。 已经熟悉这些基础知识的读者可以安全地跳过本节。
...概率论只不过是把常识归纳为计算问题。 - 皮埃尔·拉普拉斯,1812年
在前一章中,我们看到了概率如何在机器学习中发挥有用的作用。 在本章中,我们将更详细地讨论概率论。 我们没有足够的空间来详细说明 - 为此,你最好查阅一些关于这个主题的优秀教科书,例如(Jaynes 2003; Bertsekas和Tsitsiklis 2008; Wasserman 2004)。 但我们将简要回顾一下您在后面章节中需要的许多关键想法。
...第二章 概率 本节中的目录: 2.1 导论 2.2 概率论的简要回顾 2.3 一些常见的离散分布 2.4 一些常见的连续分布 2.5 联合概率分布 2.6 Transformations of random variables 2.7 Monte Carlo approximation 2.8 Information theory Exercises
返回本章目录
在本节中,我们将介绍机器学习中的一些关键思想。 我们将在本书后面对这些概念进行扩展,但我们将在此简要介绍它们,以便给引起大家兴趣。
...我们现在考虑无监督学习,我们只给出输出数据,没有任何输入。目标是在数据中发现“有趣的结构”;这有时被称为知识发现。与监督学习不同,我们没有被告知每个输入所期望输出是什么。相反,我们将我们的任务形式化为密度估计中的一种,也就是说,我们想要构建形如 \(p(\boldsymbol{x}_i | \boldsymbol{\theta})\) 的模型。与有监督情形有两点不同。首先,我们写了 \(p(\boldsymbol{x}_i | \boldsymbol{\theta})\) 而不是 \(p(y_i | \boldsymbol{x}_i,\boldsymbol{\theta})\) ;也就是说,监督学习是条件密度估计,而无监督学习是无条件密度估计。其次, \(\boldsymbol{x}_i\) 是特征向量,因此我们需要创建多变量概率模型。相比之下,在监督学习中, \(y_i\) 通常只是我们试图预测的单个变量。这意味着对于大多数监督学习问题,我们可以使用单变量概率模型(参数依赖的输入),这显着简化了问题。 (我们将在第19章讨论多输出分类,我们将在其中看到它还涉及多变量概率模型。)
...我们通过讨论监督学习来开始我们对机器学习的研究,监督学习是在实践中最广泛使用的ML的形式。
...我们淹没在信息中,渴望知识。 — John Naisbitt。
我们正在进入大数据时代。 例如,有大约1万亿个网页; YouTube一个小时的视频上传,每天相当于10年的内容;1000多人的基因组,每个人的长度为3.8×109个碱基对,已被各种实验室测序; 沃尔玛每小时处理超过1M笔交易,数据库包含超过2.5千兆字节(2.5×1015)的信息(Cukier 2010); 等等。
...第一章 导论 本节中的目录: 1.1 机器学习:什么和为什么? 1.2 监督学习 1.3 无监督学习 1.4 机器学习的一些基本概念 Exercises
原文: Machine Learning A Probabilistic Perspective, Kevin P. Murphy, MIT, 2012
译者: 混沌(joistwang@sina.com)
...