!
也想出现在这里? 联系我们
广告信息

常见的循环神经网络,入门|一文简述循环神经网络

本文简要介绍了什么是循环神经网络及其运行原理,并给出了一个RNN实现示例。什么是循环神经网络(RNN)?它们如何运行?可以用在哪里呢?本文试图回答上述这些问题,还展示了一个RNN实现demo,你可以根据自己的需要进行扩展。循环神经网络架构基础知识。Python、CNN知识是必备的。了解CNN的相关知识,是为了与RNN进行对比:RNN为什么以及在哪些地方比CNN更好。我们首先从「循环」(Recurrent)这个词说起。为什么将其称为循环?循环的意思是:经常或重复出现将这类神经网络称为循环神经网络是因为它对一组序列输入重复进行同样的操作。本文后续部分将讨论这种操作的意义。我们为什么需要RNN?也许你现在想的是,已经有像卷积网络这样表现非

简要介绍了什么是循环神经网络及其工作原理,并给出了一个RNN实现的例子。

什么是循环神经网络(RNN)?它们是如何工作的?可以用在哪里?本文试图回答这些问题,并展示了一个RNN实现演示,您可以根据自己的需要进行扩展。

入门一文简述循环神经网络

循环神经网络体系结构

基础知识。Python和CNN的知识是必须的。了解CNN以便与RNN进行比较:RNN为什么比CNN好,在哪里比CNN好?

先说“循环”这个词。为什么叫循环?循环的意思是:

或者经常复发。

这种神经网络被称为循环神经网络,因为它对一组序列输入重复执行相同的操作。这个操作的意义将在本文的下一部分讨论。

我们为什么需要 RNN?

也许你现在想的是,已经有一个像卷积.一样优秀的网络,为什么你还需要其他类型的网络?有一种特殊情况需要RNN。为了解释RNN,你首先需要了解序列。先说顺序。

序列是相互依赖的(有限或无限)数据流,如时间序列数据、信息字符串、对话等。在对话中,一个句子可能有一种意思,但整个对话入门级单反相机推荐可能有入门赘婿完全不同的意思。股一文字则宗市数据等时间序列数据也是如此。单一的数据表示当前价格,但是全天的数据会有不同的变化,促使我们做出买入或卖出的决定。

当输入数据循环系统是相依的、顺序的时,CNN的结果一般不太好。CN入门赘婿N的上一次输入和下一次输入之间没有相关性。所以所有的输出都是独立的。CNN接受输入,然后根据神经网络控制训练好的模型输出。如果您运行100个不同的输入,它们的输出都不会受到前一个输出的影响。但是仔细想想。如果是文本生成或者文本翻译呢?所有生成的词都是独立于前面生成一文钱等于多少人民币的词的(有些情况下也是独立于后面的词,这里就不讨论了)。所以你需要有一些基于之前输出的偏差。这正是需要RNN的地方。Rn对之前发生在入门鞋柜2022款数据序列中的事情循环小数化分数的方法有一定的记忆。这有助于系统获得上简述行政赔偿的作用下文。从理论上讲,RNN有无限的记忆力,这意味着他们有无限复习的能力。复习一下就能知道之前所有的输入。但在实际操作中,它只能回顾最后几步。

这篇简述文章是为了循环英雄和人类总体相关,不会做任何决定。本文只是根据一文读懂个人养老金制度之前对项目的了解做入门级单反相机推荐出了自己的判断(我连人类大脑的0.1入门级相机%入门级相机都还没看懂)。

何时使用 R简述自己的入党动机NN?

RN可以用在很多不同的地方。以下是RNN应用最广泛的领域。

1. 语言建模和文本生成

给出一入门个单词序列,试着预测下一个单循环英雄入门级单反相机推荐的可能性。这在翻译任务中非常有用,因为最可能的句子将是由最可能的单词组成的句子。

2. 机器翻译

一种或几种形式一文读懂个人养老金制度的RNN用于将文循环初恋本内容从一种语言翻译成另一种语言。日常使用的所有实用系统都使用一入门级相机些先进版本的RNN。

3. 语音识别

基于输入声波预测语音入门m自调任务片段,从一文不值而确定单词。

4. 生成图像描述

RN的一个非常广泛的应用就是理解一幅图像中发生了什么,从而做出合理的描述。这是CNN和RNN的结合。做CNN图像分割,RNN用分入门赘婿割的数据重建描述。虽然这种应用是基本的,但可能性是无穷的。

5. 视频标记

您可以为视频搜索逐帧标记视频。

深入挖掘

本文是根据以下主题展开的。每一部分都是建立在前一部分的基础上,不要跳读。

前馈网络

循环网络

循环神经元

基于时间的反向传播(BPTT)

RNN实施

前馈网络入门

前馈通过网络每个节点上的一系列操作来传输信息。前馈一次直接通过每一层发回信息。这不同于其他循环神经网络。一般来说,前馈网络接受一个输入,并根据它生成一个输出,这也是大多数监督学习的步骤,输出结果可能是一个分类结果。其行神经网络分类为类似于CNN。输出可以是以猫和狗为标签的类别。

基于一系列预先标记的数据来训练前馈。训练阶段的目的是减少前馈网络在猜测类别时的错误。一旦训练完成,我们可以使用训练后的重量来校正新的

批次的数据进行分类。

入门|一文简述循环神经网络

一个典型的前馈网络架构

还有一件事要注意。在前馈网入门级单反相机推荐络中,无论在测试阶段展示给分类器的图像是什么,都不会改变权入门m自调任务重,所以也不会影响第二个决策。这是前馈网络和循环网络之间一个非常大的不同。

与循环网络不同,前馈网络在测试时不会记神经网络英文得之前的输入数据。它们始神经网络预测终是取决于时间点的。它们只会神经网络对信息的存储依赖什么在训练阶段记得历史输入数据。

循环网络

也就是说,循环网络不仅将当前的输入样例作为网络输入,还将它们之前感知到的一并作入门鞋柜2022款为输入。

我们试着建立了一个多层感知器。从简单的角度讲,它有一个输入层、一个具备特定激活函数的隐藏层,最终可以得到输出。

入门|一文简述循环神经网络

多层感知器架构示例

如果在上述入门级相机示例中的层数增加了,输入层也接收输入。那么第一个隐藏层将激活传递到下一个隐藏层上,依此类推。最后到达输一文读懂心脏彩超报告出层。每简述一个隐藏层都有自己的权重简述企业愿景怎么写和偏置项。现在问题变成了神经网络我们可以输入到隐藏层吗?

入门|一文简述循环神经网络

每一层都有自己的权重(W神经网络算法三大类)、偏置项(B)和激活函数(F)。这些层的循环系统行为不同,合并它们从技术层面上讲也极具挑战性。为了合并它们,我们将所有层一文钱等于多少钱的权重入门级单反相机推荐和偏置项替换成相同的值。如下图所示:

入门|一文简述循环神经网络

现在我们就可以将所有层合并在一起了。所有的隐藏层都可以结合在一个循入门级机车环层中。所以看起来就像下图:

入门|一文简述循环神经网络

我们在每一步都会向隐藏层提供输入。现在一个循环神经元存储了所有之前步的输入,并将这一文钱些信息和当前步的输入合并。因此,它还捕获到一些当前数据步和之前步的相关性信息。t-1 步神经网络的基本原理的决策影响到第 t 步做的决策。这很像人类在生活中做决策的方式。我们将当前数据和近期数据结合起来,帮助解决手头的特定问题。这个例子很简单,但从原则上讲这与人类的决策能力是一致的。这让我非常想知道我们作为人类是否真的很智能,或者说我们是否有非常高级的神经网络模型。我们做出的决策只是对生活中收集到的数据进行训练。那么一旦有了能够在合理时间段内存储和计算数据的先进模型和系统时,是否入门级单反相机推荐可以数字化大脑呢?所以当我们有了比大脑更好更快的模型(基于数百万人的数据训练出的)时,会发生什么?

另一篇文一文读懂心脏彩超报告章(
https://deeplearning4j.org/lstm.html)的一文读懂心脏彩超报告有趣观点:人总是被自己的行为所困扰。

我们用一个例子来阐述上面的解释,这个例子是预测一系列字母后的下一个字母。想象一个神经网络控制有 8 个字母的单词 namaskar。

namaskar(合十礼):印度表示尊重的传统问候或姿势,将手掌合起置于面一文不名的意思前或胸前鞠躬。

如果神经网络对信息的存储依赖什么我们在向网络输入 7 个字母后试着找出第 8 个字母,会发生什么呢?隐藏层会经历 8 次迭代。如果展开网络的话就是一个 8 层的网络,每一层对应一个字母。所以你可以想象一个入门级机车普通的神经网络被重复了多次。展开的次数与它记得多久之前的数据是直接相关的。

入门|一文简述循环神经网络

循环神经网络的运作原理

循环神经元

这里我们将更深入地了解负责决策的实际神经元。以之前提到的 namaskar 为例,在给出前 7 个字母后,试着找出第 8 个字母。输神经网络入数据的完整词汇表是 {n,a,m,s,k,r}。在真实世界中单词或句子都会更复杂。为了简化问题,我们用的是下面入门级单反相机推荐这个简单的词汇表。

入门|一文简述循环神经网络

在上图中,隐藏层或 RNN 块在当前输入和之前的状态中应用了入门钢琴简谱公式。在本例中循环的拼音,namaste 的字母 n 前面什神经网络么都没有。所以我们直接使用当前信息推断,并移动到下一个字母 a。在推断字母 a 的过程中,隐藏层应用了上述公式结合当前推断 a 的信息与前面推断 n 的信息。输简述军民融合发展入在网络中传递的每一个状态都是一个时间步或一步,所以时间步 t 的输入是 a,时循环的拼音间步一文不名 t-1 的输入就是 n。将公式同时入门级羽毛球拍推荐应用于 n 和 a 后,就得到了一个新状态。

用于当前状态循环利息什么意思的公式如下所示:

入门|一文简述循环神经网络

h_t 是新状态,h_t-1 是前一个状态。x_t 是时间 t 时的入门钢琴简谱输入。在对之前的时间步应用一文读懂心脏彩超报告相同的公式后,我们已经能感知到之一文不名前的输入了。我们将检查 7 个这样的输入,它们在每一步的权重和函数都是相同的。

入门赘婿在试着以简单的方式定义 f()。我们使用 tanh 激活函数。通过矩阵 W_hh 定义权重,通过矩阵 W_xh 定义输入。公式如下所示:

入门|一文简述循环神经网络

上例只将最后一步作为记忆,因此只与最后一入门吉他谱步的数据合并。为了提升网络的记忆能力,并在记忆中保留较长的序列,神经网络对信息的存储依赖什么我们必须在方程中添加更多的状态,如 h_t-2、h_t-3 等。最后输出可神经网络控制以按测试阶段的计算方式进行计算:

入门|一文简述循环神经网络

其中,y_t 是输出。对输出与实际输出进行对比,然后计算出误差值。网络通过反向传播误差来更新权重,进神经网络英文行学习。本文后续部分会对反向传播进神经网络英文行讨论。

基于时间的反向传播算法(BPTT)

本节默认你已经了解了反向传播概念。如果需要对反向传播进行深入了解,请参阅链接:
http://cs231n.github.io/optim循环小数化分数的方法ization-2/。

现在我们了解了 RN入门英语口语N 是如何实际运作的,但是在实际工作中如何训练 RNN 呢?该如何决定每简述自己的入党动机个连接的权重呢?如何初始化这些隐藏单元的权重呢?循环网络的目的是要准确地对序列输入进行分类。这要靠误差值的反向传播和梯度下降来实现。但是前馈网络中使用的标准反向传播无法在此应用。

与有向无环的前馈网络不同,RNN 是循环图,这也是问题所在。在前馈网络中可以计算出之前层的误差导数。但 RNN 的层级排列与前馈网络并不相同。

答案就在之前讨论过的内容中。我们需要展开网络。展开网络使其看起来像前馈网络就可以了。

入门|一文简述循环神经网络

展开简述社会主义发展史 RNN

在每个时间步取出 RNN 的隐藏单元并复制。时间步中的每一次循环复制就像前馈网络中的一层。在时间步 t+1 中每个时间步 t 层与所有可能的层连接。因此我们对权重进行随机初始化,展开网络,然后在隐藏层中通过反向传播优化权重。通过向最低层简述心肺耐力的重要性传递参数完成初始化。这些参数作为反向传播的一部分也得到了优化。

展开网络的结果是,现在每一循环电视剧层的入门权重都不同,一文不名因此最终会得到不同程度的优化。无神经网络引擎法保证基于权重计算出的简述企业愿景怎么写误差是相等的。所以每一次运行结束时每一层的神经网络是什么权重都不同。这是我们绝对不希望看到的。最简单的解决办神经网络算法三大类法是以某种方式将所有层的误差合并到一一文读懂个人养老金制度起。可以对误差值取平均或者求和。通过这种方式,我们可以在所有时间步中一文钱使用一层来保持相同的权重。

R神经网络算法三大类NN 实现

本文试着循环初恋用 Keras入门级机车 模型实现 RNN。我们试着根据给定的文本预测下一个序列。

给TA打赏
共{{data.count}}人
人已打赏
新媒体干货

客源引流推广,如何获取精准客源?这15种引流推广的方法你又知道多少?

2022-5-13 19:51:31

新媒体干货

怎么给抖音账号贴标签,抖音网页版,必须掌握的5种功能

2022-5-14 19:44:32

免责说明

本站资源大多来自网络,如有侵犯你的权益请提交工单反馈(点击进入提交工单) 或给邮箱发送邮件laakan@126.com 我们会第一时间进行审核删除。站内资源为网友个人学习或测试研究使用,未经原版权作者许可,禁止用于任何商业途径!请在下载24小时内删除!

!
也想出现在这里? 联系我们
广告信息
0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索