文章 6

访客 487

声望 33

千里之外

Blog

【转】通俗理解卷积神经网络

http://blog.csdn.net/jasonjwl/article/details/52488407

《卷积神经网络入门到精通》课程笔记:第四章

作为线性分类器的单个神经元,包括二分类SoftMax分类器、二分类SVM分类器;常用激活函数:Sigmoid非线性函数、Tanh函数、ReLU函数(常用)、Leakey ReLU;

《卷积神经网络入门到精通》课程笔记:第二章2

SVM(支持向量机)分类器,通过计算预测值与真实值之间的差值,同时加上一个边界值,如果差值在边界值范围外,则不计算损失,如果在边界值以内,则需要计算损失—(折叶损失,也就是数据损失)

《卷积神经网络入门到精通》课程笔记:第三章

(1)损失函数可以进行可视化,比如SVM对应的折叶损失函数,可以计算各个分量的几何表示,再取最大值得到连续图像。(2)优化策略包括:随机搜索、随机本地搜索、跟随梯度。三个搜索策略从字面意思即可理解。其中,跟随梯度策略可靠性最高。

《卷积神经网络入门到精通》课程笔记:第二章1

k近邻分类器与线性分类器的不同之处是:k近邻分类器:对每个测试集进行分类时,需要和所有训练集比较,如果训练集过多,消耗内存会过大,分类效率降低;线性分类器:使用线性函数f(x)=wx+b,在训练集中计算w和b,然后使用训练好的函数对每个测试集计算出具体分类;(前向推断)

《卷积神经网络入门到精通》课程笔记:第一章

近邻算法:针对测试集中的每个元素,与训练集中的所有元素进行比较,选择差值最小的训练元素对应的分类作为自己的分类(差值最小可以直接取绝对值,或者通过勾股定理求得斜边:放大差异)k近邻算法:针对测试集中的每个元素,与训练集中的k个元素进行比较,选择差值最小的k个个元素对应的分类作为自己的分类,如果k个元素中,最大分类个数相同,则标记为空缺,表示无法分类;对于k值的选择,需要取典型的几个值,然后在训练集中选择小部分作为验证集,使用相同方法求解每个k值对应的分类,比较多个k值分类中误差最小的值作为k值,然后再使用前面的方法使用测试集中的元素与训练集中的元素进行比较(不适用验证集中的元素)

 ©2017 studyai.com 版权所有

关于我们