| 文章要像女孩子的裙子一样,短点,短点,再短点

文章 18

访客 1591

声望 77

第10名

Blog

Tensorflow中的GradientDescentOptimizer 和AdamOptimizer 的比较

常用tensorflow的朋友一定对这两个优化器不陌生。那么这两个优化器究竟差异在哪里,我什么时候该用GradientDescentOptimizer,什么时候该用AdamOptimizer呢。

使用sklearn分割数据集

比如用np生成一个和数据集一样大小的列表mask,然后mask>0.8,这样做好以后,就能区分开来了。不过既然有工具,我们就不用这种方式了。

使用tensorboard来测试超参数

大家调试超参数也调试很久了,不过除了肩扛手提的手工模式(觉得某个参数有问题,然后就去调整,然后看看效果),其实我们还可以加上tensorboard来可视化效果。

深度学习正则化附带TensorFlow实现

正则化又分为L1正则化和L2正则化(也可以叫做weight decay)。因为L1正则化会造成参数稀疏(使很多w为0),所以一般使用L2正则化。

偏差和方差和过拟合

最左边代表数据预测不准,而最右边则代表数据预测比较离散。而分别对应的就是我们深度学习中的underfitting (低拟合度)和overfitting(过拟合)

CapsNet初步理解

最近大神Hinton发了论文。而且还发了两篇。一篇在这https://arxiv.org/abs/1710.09829,一篇在这https://openreview.net/pdf?id=HJWLfGWRb

理解python中的矩阵

输入的样本是矩阵,参数又是矩阵,输出的预测值还是矩阵。深度学习中debug绝大部分时间都是矩阵的维度不对。

深度网络求导

如果数学好,你可以推演任意一个函数的导数是什么,不过大部分时间不需要,只要上网查一下,就能知道各个函数的导数是什么。

深度学习中的矩阵问题

深度学习为什么要引入矩阵运算,不用矩阵是不是也可以深度学习。答案是肯定的。实际上,如果不使用矩阵运算,使用循环也能够深度学习,而且在第四课CNN练习中,吴老师就让大家使用循环来实现前向传播

 ©2017 studyai.com 版权所有

关于我们