小昇的博客

学习 生活 分享

决策树

信息增益、增益率和基尼指数

1 基本流程 决策树 (decision tree) 是一类常见的机器学习方法,它基于树结构来进行决策。例如,我们要对“这是好瓜吗?”这样的问题进行决策时,通常会进行一系列的判断或“子决策”,如下图所示: 一般的,一棵决策树包含一个根结点、若干个内部结点和若干个叶结点;叶结点对应于决策结果,其他每个结点则对应于一个属性测试;每个结点包含的样本集合根据属性测试的结果被划分到子结点中;根...

无约束优化

梯度下降、牛顿法和拟牛顿法

许多机器学习模型的训练过程就是在求解无约束最优化问题,梯度下降法 (gradient descent)、牛顿法 (Newton method) 和拟牛顿法 (quasi Newton method) 都是求解这类问题的常用方法。其中梯度下降法实现简单,而牛顿法和拟牛顿法收敛速度快。 1. 梯度下降法 假设 $f(\boldsymbol{x})$ 是 $\mathbb{R}^{n}$ 上具...

朴素贝叶斯分类器

假设所有属性相互独立

1. 贝叶斯决策论 1.1 贝叶斯判定准则 假设有 $N$ 种可能的类别标记,即 $\mathcal{Y} = {c_1,c_2,…,c_N}$,$\lambda_{ij}$ 是将一个真实标记为 $c_j$ 的样本误分类为 $c_i$ 所产生的损失。基于后验概率 $P(c_i\mid\boldsymbol{x})$ 可获得将样本 $\boldsymbol{x}$ 分类为 $c_i$ 所产...

深度学习中的优化方法

梯度下降和约束优化

大多数深度学习算法都涉及某种形式的优化。优化指的是改变 $\boldsymbol{x}$ 以最小化或最大化某个函数 $f(\boldsymbol{x})$ 的任务。我们通常以最小化 $f(\boldsymbol{x})$ 指代大多数最优化问题,最大化可经由最小化算法最小化 $−f(\boldsymbol{x})$ 来实现。 我们把要最小化或最大化的函数称为目标函数 (objective f...

概率与信息论基础(下):常用概率分布和信息熵

Bernoulli分布、高斯分布与交叉熵

1. 常用概率分布 许多简单的概率分布在机器学习的众多领域中都是有用的。 1.1 Bernoulli 分布 Bernoulli 分布 (Bernoulli distribution) 是单个二值随机变量的分布。它由单个参数 $\phi ∈ [0, 1]$ 控制,$\phi$ 给出了随机变量等于 $1$ 的概率。它具有如下的一些性质: 1.2 高斯分布 实数上最常用的分布就是正态...

概率与信息论基础(上):基础概念

概率分布、期望与方差

概率论中最基本的概念是随机变量,随机变量 (random variable) 就是可以随机地取不同值的变量。 一个随机变量只是对可能的状态的描述,它必须伴随着一个概率分布来指定每个状态的可能性。随机变量可以是离散的或者连续的。离散随机变量拥有有限或者可数无限多的状态(这些状态不一定是整数,也可能只是一些被命名的没有数值的状态)。连续随机变量伴随着实数值。 我们通常用无格式字体来表示随...

矩阵Capsule与EM路由

使用 GMM 来完成聚类

转载自《三味Capsule:矩阵Capsule与EM路由》,作者:苏剑林 事实上,在论文《Dynamic Routing Between Capsules》发布不久后,一篇新的 Capsule 论文《Matrix Capsules with EM Routing》就已经匿名公开了(在 ICLR 2018 的匿名评审中),而如今作者已经公开,他们是 Geoffrey Hinton, ...

Jupyter Notebook 快速入门

创建漂亮的交互式文档

原文《Getting started with the Jupyter notebook 》,作者:Marin Gilles,译者:Python 翻译组 EarlGrey。 Jupyter Notebook(此前被称为 IPython notebook)是一个交互式笔记本,支持运行 40 多种编程语言。在本文中,我们将介绍 Jupyter notebook 的主要特性,以及为什么...

机器学习基础(五)

监督学习算法和随机梯度下降

本文内容摘取自 《Deep Learning》,部分内容有修改。 1. 监督学习算法 粗略地说,监督学习算法是给定一组输入 $\boldsymbol{x}$ 和输出 $\boldsymbol{y}$ 的训练集,学习如何关联输入和输出。 1.1 概率监督学习 大部分监督学习算法都是基于估计概率分布 $p(y \mid \boldsymbol{x})$ 的,我们可以使用最大似然估...

机器学习基础(四)

最大似然估计和贝叶斯统计

本文内容摘取自 《Deep Learning》,部分内容有修改。 在《机器学习基础(三)》估计一节中我们已经看过常用估计的定义,并分析了它们的性质,但是这些估计是从哪里来的呢?我们希望有些准则可以让我们从不同模型中得到特定函数作为好的估计,而不是猜测某些函数可能是好的估计,然后分析其偏差和方差。 最常用的准则是最大似然估计。 1. 最大似然估计 考虑一组含有 $m$ 个样本的...