标签

机器学习

从变分编码、信息瓶颈到正态分布

论遗忘的重要性


变分自编码器 VAE

Variational Auto-Encoder


互怼的艺术:从零直达 WGAN-GP

GAN 简介


决策树

信息增益、增益率和基尼指数


无约束优化

梯度下降、牛顿法和拟牛顿法


朴素贝叶斯分类器

假设所有属性相互独立


深度学习中的优化方法

梯度下降和约束优化


概率与信息论基础(下):常用概率分布和信息熵

Bernoulli分布、高斯分布与交叉熵


概率与信息论基础(上):基础概念

概率分布、期望与方差


机器学习基础(五)

监督学习算法和随机梯度下降


机器学习基础(四)

最大似然估计和贝叶斯统计


机器学习基础(三)

交叉验证和参数估计


机器学习基础(二)

容量、过拟合和欠拟合


机器学习基础(一)

学习算法


从 loss 的硬截断、软化到 focal loss

通过 Loss 函数缓解数据不平衡问题


果壳中的条件随机场

CRF In A Nutshell


浅谈集成学习:Boosting与随机森林

把多个学习器结合起来提高性能


神经网络(下):反向传播算法的说明和深度学习

开启深度学习的大门


神经网络(中):多层前馈神经网络与反向传播算法

如何学习到网络中权值


神经网络(上):神经元与感知机

使用计算机来模拟生物神经系统


SVM 支持向量机(下):非线性型

核函数和软间隔


SVM 支持向量机(上):基本型

支持向量和 SMO 算法


线性回归、Logistic 回归和感知机

线性模型


CRF 条件随机场

使用 Viterbi 算法寻找最优标注序列


产生式模型与判别式模型

建模对象是最大的不同


HMM 隐马尔可夫模型(下)

使用 Viterbi 算法寻找隐藏状态


HMM 隐马尔可夫模型(上)

看见不可见


模型评估与模型选择

评估方法与性能度量


机器学习构成三要素之特征

特征:机器学习的马达


机器学习构成三要素之模型

模型:机器学习的输出


机器学习构成三要素之任务

任务:可通过机器学习解决的问题


机器学习概述

简单的二元分类器


LIBSVM使用说明(下):寻找最优参数

LIBSVM使用指南


LIBSVM使用说明(中):函数和Python接口

LIBSVM使用指南


LIBSVM使用说明(上):介绍和安装

LIBSVM使用指南


深度学习

Keras深度学习笔记(四):机器学习基础

模型评估与正则化


从变分编码、信息瓶颈到正态分布

论遗忘的重要性


Keras深度学习笔记(三):神经网络入门

层、网络、目标函数和优化器


Keras深度学习笔记(二):神经网络的数学基础

张量运算、微分和梯度下降


变分自编码器 VAE

Variational Auto-Encoder


Keras深度学习笔记(一):什么是深度学习

人工智能、机器学习以及深度学习


互怼的艺术:从零直达 WGAN-GP

GAN 简介


深度学习中的优化方法

梯度下降和约束优化


矩阵Capsule与EM路由

使用 GMM 来完成聚类


从K-Means到Capsule

深入解读动态路由


Capsule 胶囊网络入门

用聚类的思想来理解动态路由


浅谈 NLP 中的 Attention 机制

Google 的“大道至简”


从 loss 的硬截断、软化到 focal loss

通过 Loss 函数缓解数据不平衡问题


果壳中的条件随机场

CRF In A Nutshell


使用 Keras 开发词语级自然语言模型

使用 LSTM 学习词语序列


构建编码器解码器模型实现 Seq2Seq 预测

使用 Keras 实现 Sequence-to-Sequence


白话蒙特卡洛树搜索和 ResNet

一文读懂AlphaGo Zero算法


Ubuntu深度学习环境搭建

安装Cuda、CuDNN、TensorFlow


用 Keras 实现验证网络 siamese

keras示例程序解析


编译安装 TensorFlow

开启加速指令,充分调用起你的硬件


LSTM 网络原理

通过图解,一步一步“走过”LSTM


Deep Learning 学习笔记(下):常用模型

深度学习的常用模型和方法


Deep Learning 学习笔记(中):神经网络

如何训练深度网络


Deep Learning 学习笔记(上):深度学习简介

什么是深度学习


深度学习之自然语言处理

运用深度学习向语义层面的理解迈进


RNN 循环神经网络(下):长期依赖的挑战与长短期记忆

对 LSTM 和 GRU 的简单介绍


RNN 循环神经网络(中):常见的网络架构

实际应用中常见的循环神经网络架构


RNN 循环神经网络(上):计算图与网络设计模式

循环神经网络的三种经典结构


CNN 卷积神经网络(下):实践中的细节

使用卷积神经网络的要点


CNN 卷积神经网络(中):基本卷积函数的变体

神经网络中的卷积


CNN 卷积神经网络(上):卷积与池化

卷积与池化是一种无限强的先验


理解深度学习中的卷积

深入理解卷积的物理意义


神经网络(下):反向传播算法的说明和深度学习

开启深度学习的大门


神经网络(中):多层前馈神经网络与反向传播算法

如何学习到网络中权值


神经网络(上):神经元与感知机

使用计算机来模拟生物神经系统