文章 7

访客 256

声望 33

第20名

Blog

深度残差收缩网络之Keras图像识别

深度残差收缩网络事实上属于一种卷积神经网络,是深度残差网络(deep residual network, ResNet)的一个变种。它的主要思想是,在深度学习进行特征学习的时候,删除冗余信息是非常重要的;这是因为原始数据中往往存在着很多和当前任务无关的信息;软阈值化则是一种非常灵活的、删除冗余信息的方式。

深度残差收缩网络之六:代码实现

深度残差收缩网络其实是一种通用的特征学习方法,是深度残差网络ResNet、注意力机制和软阈值化的集成,可以用于图像分类。本文采用TensorFlow 1.0和TFLearn 0.3.2,编写了图像分类的程序,采用的图像数据为CIFAR-10。CIFAR-10是一个非常常用的图像数据集,包含10个类别的图像。可以在这个网址找到具体介绍:https://www.cs.toronto.edu/~kriz/cifar.html

深度残差收缩网络之五:实验验证

实验部分将所提出的两种深度残差收缩网络,即“通道之间共享阈值的深度残差收缩网络(Deep Residual Shrinkage Networks with Channel-shared Thresholds,简称DRSN-CS)”,和“逐通道不同阈值的深度残差收缩网络(Deep Residual Shrinkage Networks with Channel-wise Thresholds,简称DRSN-CW)”,与传统的卷积神经网络(Convolutional Neural Networks, ConvNet)和深度残差网络(Deep Residual Networks, ResNet)进行了对比。实验数据是齿轮箱在八种健康状态下的振动信号,分别添加了不同程度的高斯噪声、Laplacian噪声和Pink噪声。

深度残差收缩网络之四:注意力机制下的阈值设置

对于基于深度学习的分类算法,其关键不仅在于提取与标签相关的目标信息,剔除无关的信息也是非常重要的,所以要在深度神经网络中引入软阈值化。阈值的自动设置,是深度残差收缩网络的核心贡献。需要注意的是,软阈值化中的阈值,需要满足一定的条件。这篇文章中的阈值设置,事实上,是在注意力机制下进行的。下面分别介绍阈值需要满足的条件、注意力机制以及具体的阈值设置方法。

深度残差收缩网络之三:网络结构

深度残差收缩网络(Deep Residual Shrinkage Network)是深度残差学习(Deep Residual Network, ResNet)的一种改进,发表在IEEE Transactions on Industrial Informatics上,面向的是数据包含噪声的情况。

深度残差收缩网络之二:整体思路

本文提出了新的深度学习方法,即深度残差收缩网络,来提高深度学习算法从强噪声信号中学习特征的能力,并且取得较高的故障诊断准确率。

深度残差收缩网络之一:背景知识

深度残差收缩网络(Deep Residual Shrinkage Network)是深度残差学习(Deep Residual Network, ResNet)的一个变种,发表在IEEE Transactions on Industrial Informatics上,面向的是复杂场景的数据。

 ©2017 studyai.com 版权所有

关于我们