标签

机器学习

Keras 使用技巧

一个极其友好、极其灵活的高层深度学习 API 封装


Seq2Seq 模型入门

NLP 与深度学习结合的经典之作


基于 DGCNN 和概率图的轻量级信息抽取模型

膨胀门卷积神经网络


基于CNN的阅读理解式问答模型:DGCNN

膨胀门卷积神经网络


从变分编码、信息瓶颈到正态分布

论遗忘的重要性


变分自编码器 VAE

Variational Auto-Encoder


互怼的艺术:从零直达 WGAN-GP

GAN 简介


决策树

信息增益、增益率和基尼指数


无约束优化

梯度下降、牛顿法和拟牛顿法


朴素贝叶斯分类器

假设所有属性相互独立


深度学习中的优化方法

梯度下降和约束优化


概率与信息论基础(下):常用概率分布和信息熵

Bernoulli分布、高斯分布与交叉熵


概率与信息论基础(上):基础概念

概率分布、期望与方差


机器学习基础(五)

监督学习算法和随机梯度下降


机器学习基础(四)

最大似然估计和贝叶斯统计


机器学习基础(三)

交叉验证和参数估计


机器学习基础(二)

容量、过拟合和欠拟合


机器学习基础(一)

学习算法


从 loss 的硬截断、软化到 focal loss

通过 Loss 函数缓解数据不平衡问题


果壳中的条件随机场

CRF In A Nutshell


浅谈集成学习:Boosting与随机森林

把多个学习器结合起来提高性能


神经网络(下):反向传播算法的说明和深度学习

开启深度学习的大门


神经网络(中):多层前馈神经网络与反向传播算法

如何学习到网络中权值


神经网络(上):神经元与感知机

使用计算机来模拟生物神经系统


SVM 支持向量机(下):非线性型

核函数和软间隔


SVM 支持向量机(上):基本型

支持向量和 SMO 算法


线性回归、Logistic 回归和感知机

线性模型


CRF 条件随机场

使用 Viterbi 算法寻找最优标注序列


产生式模型与判别式模型

建模对象是最大的不同


HMM 隐马尔可夫模型(下)

使用 Viterbi 算法寻找隐藏状态


HMM 隐马尔可夫模型(上)

看见不可见


模型评估与模型选择

评估方法与性能度量


机器学习构成三要素之特征

特征:机器学习的马达


机器学习构成三要素之模型

模型:机器学习的输出


机器学习构成三要素之任务

任务:可通过机器学习解决的问题


机器学习概述

简单的二元分类器


LIBSVM使用说明(下):寻找最优参数

LIBSVM使用指南


LIBSVM使用说明(中):函数和Python接口

LIBSVM使用指南


LIBSVM使用说明(上):介绍和安装

LIBSVM使用指南


NLP

Seq2Seq 模型入门

NLP 与深度学习结合的经典之作


基于 DGCNN 和概率图的轻量级信息抽取模型

膨胀门卷积神经网络


基于CNN的阅读理解式问答模型:DGCNN

膨胀门卷积神经网络


BERT 浅析

快速上手使用 BERT


浅谈 NLP 中的 Attention 机制

Google 的“大道至简”


更别致的词向量模型:simpler glove(下)

模型结果与代码实现


更别致的词向量模型:simpler glove(上)

自己构建词向量模型


使用 Keras 开发词语级自然语言模型

使用 LSTM 学习词语序列


构建编码器解码器模型实现 Seq2Seq 预测

使用 Keras 实现 Sequence-to-Sequence


不可思议的 Word2Vec(下)

用 Tensorflow 和 Keras 来实现 Word2Vec


不可思议的 Word2Vec(中)

提取关键词与词语相似度


不可思议的 Word2Vec(上)

Word2Vec 的基本原理


LSTM 网络原理

通过图解,一步一步“走过”LSTM


2017 年 ACL 的四个 NLP 深度学习趋势

语言结构 词语表达 可解释性 注意力


在 Keras 模型中使用预训练的词向量

通过预训练的词向量引入外部语义信息


深度学习之自然语言处理

运用深度学习向语义层面的理解迈进


浅谈词向量

n元模型与word2vec


统计语言模型

用数学的方法理解语言


DeepNLP的表示学习

自然语言处理入门


维基百科中文语料库词向量的训练

处理维基百科中文语料


TextRank算法提取关键词和摘要

把PageRank运用到自然语言处理上


信息的度量和作用

信息论基本概念


LDA 入门

预测文档的主题


深度学习

使用 Keras 搭建模型识别验证码

通过 Web API 提供识别服务


Keras 使用技巧

一个极其友好、极其灵活的高层深度学习 API 封装


Seq2Seq 模型入门

NLP 与深度学习结合的经典之作


基于 DGCNN 和概率图的轻量级信息抽取模型

膨胀门卷积神经网络


基于CNN的阅读理解式问答模型:DGCNN

膨胀门卷积神经网络


BERT 浅析

快速上手使用 BERT


Keras深度学习笔记(四):机器学习基础

模型评估与正则化


从变分编码、信息瓶颈到正态分布

论遗忘的重要性


Keras深度学习笔记(三):神经网络入门

层、网络、目标函数和优化器


Keras深度学习笔记(二):神经网络的数学基础

张量运算、微分和梯度下降


变分自编码器 VAE

Variational Auto-Encoder


Keras深度学习笔记(一):什么是深度学习

人工智能、机器学习以及深度学习


互怼的艺术:从零直达 WGAN-GP

GAN 简介


深度学习中的优化方法

梯度下降和约束优化


矩阵Capsule与EM路由

使用 GMM 来完成聚类


从K-Means到Capsule

深入解读动态路由


Capsule 胶囊网络入门

用聚类的思想来理解动态路由


浅谈 NLP 中的 Attention 机制

Google 的“大道至简”


从 loss 的硬截断、软化到 focal loss

通过 Loss 函数缓解数据不平衡问题


果壳中的条件随机场

CRF In A Nutshell


使用 Keras 开发词语级自然语言模型

使用 LSTM 学习词语序列


构建编码器解码器模型实现 Seq2Seq 预测

使用 Keras 实现 Sequence-to-Sequence


白话蒙特卡洛树搜索和 ResNet

一文读懂AlphaGo Zero算法


Ubuntu深度学习环境搭建

安装Cuda、CuDNN、TensorFlow


用 Keras 实现验证网络 siamese

keras示例程序解析


编译安装 TensorFlow

开启加速指令,充分调用起你的硬件


LSTM 网络原理

通过图解,一步一步“走过”LSTM


Deep Learning 学习笔记(下):常用模型

深度学习的常用模型和方法


Deep Learning 学习笔记(中):神经网络

如何训练深度网络


Deep Learning 学习笔记(上):深度学习简介

什么是深度学习


深度学习之自然语言处理

运用深度学习向语义层面的理解迈进


RNN 循环神经网络(下):长期依赖的挑战与长短期记忆

对 LSTM 和 GRU 的简单介绍


RNN 循环神经网络(中):常见的网络架构

实际应用中常见的循环神经网络架构


RNN 循环神经网络(上):计算图与网络设计模式

循环神经网络的三种经典结构


CNN 卷积神经网络(下):实践中的细节

使用卷积神经网络的要点


CNN 卷积神经网络(中):基本卷积函数的变体

神经网络中的卷积


CNN 卷积神经网络(上):卷积与池化

卷积与池化是一种无限强的先验


理解深度学习中的卷积

深入理解卷积的物理意义


神经网络(下):反向传播算法的说明和深度学习

开启深度学习的大门


神经网络(中):多层前馈神经网络与反向传播算法

如何学习到网络中权值


神经网络(上):神经元与感知机

使用计算机来模拟生物神经系统