深度学习

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

0
推荐
1884
阅读

浅析互信息与特征选择

特征选择有很多方法,其中一种是基于互信息的。那么什么是互信息呢?变量x与变量y之间的互信息,可以用来衡量已知变量x时变量y的不确定性减少的程度,同样的...
0
推荐
3217
阅读

聊聊级联分类模型

进入正题之前,先来看看Stanford 教授D. Koller的research interests:OK,进入正题,本篇聊聊级联分类模型(Cascaded Classification Models)。该模型是斯...
0
推荐
2147
阅读

谈谈数据预处理及scikit-learn示例

数据预处理或称特征预处理,在机器学习中非常重要。本文聊聊几种常用的特征预处理方法。标准化这种方法即为对于某个特征来说,减去其均值并且除以相应的方差...
0
推荐
1527
阅读

集成方法系列---Forests of randomized trees 以及基于scikit-learn的示例

sklearn.ensemble 模块包含了两种基于随机决策树的平均值算法:随机森林算法和Extra-Trees算法。两种算法都对树采用了打乱再组合(perturb-and-combine)技巧...
0
推荐
4202
阅读

迁移学习系列---基于实例方法的迁移学习

机器学习中有一种特殊的类型,即迁移学习。简单来讲,将先前领域或任务中学到的知识或技能应用到新的领域或任务中,即为迁移学习。当然,要想迁移,需要保证...
0
推荐
1833
阅读

文本分类与朴素贝叶斯

进入正题之前,首先来看几个问题1. 垃圾邮件判定问题如何判断这封邮件是不是垃圾邮件呢?2. 作品所属人问题• 1787到1788年: 有多篇匿名短文试图让美国宪法批...
0
推荐
2571
阅读

集成方法系列--bagging及基于scikit-learn的示例

本篇是集成方法系列(1)---bagging方法。首先简单介绍下scikit-learn,这是一个用python实现的机器学习库。它的特点如下:简单高效,可以用于数据挖掘和数据...
0
推荐
3481
阅读

谈谈 SVD++ 和 概率矩阵分解

协同过滤是一种通过分析用户的历史数据来建立用户和商品之间联系的方法。协同过滤中两种比较成功的方法是隐含因子模型和近邻模型,其中SVD是隐含因子模型的代...
0
推荐
2392
阅读

NIPS 2016 -- 增量Boosting CNN 用于面部动作单元识别

本文是机器学习领域顶级会议 NIPS 2016 所接收的论文中深度学习相关的一篇论文。这篇论文的作者来自美国的南卡莱罗纳大学 (https://cse.sc.edu/~mengz/paper...
0
推荐
2531
阅读

SVD 浅入深出深入浅出

本文谈谈实矩阵的奇异值分解(Singular Value Decomposition)。首先提个简单的问题,什么是奇异值呢? 对于一个方阵或一般矩阵 A ,如果非负标量 σ 和非零向...
0
推荐
5965
阅读

GBDT 用于分类和回归的spark示例

GBDT是推荐系统中应用非常广泛的算法。GBDT 是由决策树集成而来的,这种算法不断地迭代式训练决策树算法,目标是最小化损失函数。跟决策树类似,GBDT能够捕捉...
0
推荐
4170
阅读

random forests用于分类和回归的spark示例

紧接上文,本文谈谈随机森林。随机森林是由多个决策树集成得到的。它是一种比较成功地机器学习算法,不仅可以用于分类问题,也可以用于回归问题。随机森林通...
0
推荐
1984
阅读

浅析logistic regression

逻辑回归是一种应用非常广泛的分类算法,同时也广泛地用于排序场景。如果样本集是线性可分的,逻辑回归是一个效果比较好的分类器。对于非线性特征,可以通过...
0
推荐
2140
阅读

谈谈梯度下降法与牛顿法

机器学习中对目标函数进行优化时,通常需要一些优化算法。其中比较常用的算法都是基于梯度下降法或牛顿法或者相关变形算法。首先来看下梯度下降过程中每次迭...
0
推荐
7264
阅读

聊聊group lasso

这次聊聊线性模型中的group lasso (lasso即为将模型中权重系数的一阶范数惩罚项加到目标函数中)惩罚项。假设Y是由N个样本的观测值构成的向量,X是一个大小...

相关话题

1410 人关注

最佳回复者

改版

反馈