03简单实战RNN(基于TensorFlow)一

接下来,定义一个类叫做SeriesPredictor。如步骤2所示,构造函数里面设置模型超参数,权重和成本函数。

阅读 1584评论 1 2年前

doc2vec

阅读 1287评论 0 2年前

pytorch 词向量 (一)

用embedding实现

阅读 1054评论 0 2年前

02栈式自编码器

就是这样,深层网络的优势在于可以逐层的学习原始数据的多种表达。每一层都是以前一层的表达为基础的,往往比较抽象,适合复杂的分类等任务。堆叠自编码器就是在做这样的事情:单个自编码器通过虚构的三层网络,能够学习出一种特征变化的h=fθ(x)(这里的θ表示变换的参数,包括W,b和激活函数)。实际上,当训练结束后,输出层就没啥意义,没意义的东西要去掉。

阅读 1017评论 0 2年前

动态的lstm tf.nn_dynamic_rnn

阅读 974评论 0 2年前

06—03—03词向量的经典代码

要有TensorFlow的基础 仅仅有Python基础是不够的 这个和06—03—02是一样的,只是代码进行了优化。其他东西不再赘述

阅读 911评论 0 2年前

01—01自编码器

我们呢,先不考虑神经网络、机器学习等等的,就单单考虑自编码器,那么原来还是比较简单的。就是试图还原原始的输入信息。上图看一下吧。

阅读 909评论 0 2年前

#06--02词向量的原始

Word2Vec是从大量文本语料中以无监督的方式学习语义知识的一种模型,它被大量地用在自然语言处理(NLP)中。那么它是如何帮助我们做自然语言处理呢?Word2Vec其实就是通过学习文本来用词向量的方式表征词的语义信息,即通过一个嵌入空间使得语义上相似的单词在该空间内距离很近。Embedding其实就是一个映射,将单词从原先所属的空间映射到新的多维空间中,也就是把原先词所在空间嵌入到一个新的空间中去。

阅读 894评论 0 2年前

01自动编码器

第一:基础,怎么来理解这是基础呢?自动编码器就是一种尽可能复现输入信号的神经网络。为了实现这种复现,自动编码器就必须捕捉可以代表输入数据的最重要的因素,就像PCA那样,找到可以代表原信息的主要成分。

阅读 809评论 0 2年前

QA 简单笔记——预处理目录

描述:Python 字典(Dictionary) get() 函数返回指定键的值,如果值不在字典中返回默认值。语法:dict.get(key, default=None)示例:

阅读 807评论 0 1年前

欢迎使用Editormd Markdown目录 目录

我们理解您对便捷写作工具的需求,记录知识,整理笔记、表达观点,将其中承载的价值传播给他人,如此的劳动始于公元前2500年前,北京人在山顶洞墙壁之上的努力。。。记录,创造文明!今天,Editormd Markdown 是我们给出的答案 —— 我们为记录思想和分享知识提供更专业的工具。

阅读 756评论 0 1年前

01—02自编码器(参考Antares老师)

就是这么一个过程。原始数据是没有折损的,然后我们人为的添加噪声,使得原始数据有折损。然后将折损的数据输入,得到隐藏层。然后从隐藏层到输出层(也叫构建层)。最后用构建层与原始数据对比,损失值越小,说明构建层的数据恢复的不错。

阅读 756评论 0 2年前