首页 虐文女主当学霸[穿书] 书架
设置 书页
A-24A+
默认
第53页
上一页 目录 书签 下一章

他很可能携带电子讯息屏蔽装置,徐静怡余光瞅见那个男孩偷溜出大堂,心中更有猜测,他靠近我时,百合与我发信息提醒,说连接信号弱,数据包传送受到严重影响。

系统大惊,【宿主,我们要不要马上报警!】

嗯,不着急,没有证据,徐静怡微微摇头,再说留个眼皮子低下的坏人不算威胁。到时候注意点就行。果然哪一个百合都是我的守护星啊。

她脸上露出一丝感慨。

【】系统忽然冒出浓浓的危机意识,【那个,宿主其实我也很有用的!要不让我开放全民好感度涨幅提示吧!对你有敌意的肯定是负数,到时候还没靠近你就能发现】

不,太吵。徐静怡很果决摇头。

这位同学?站在台上的森田教授很睿智地看着她,语态很温和,刚刚我的说法是有什么问题吗?你似乎对此有些不同的见解!

徐静怡一懵。

系统,【糟糕了宿主!好像这位老大爷误会你刚刚摇头了!你别慌,他正在讲RNN和与传统神经网络区别!】

原来已经讲到处理序列数据的循环神经网络。

这个用大白话来形容,就是机器人处理问题时的逻辑思维能力。举个例子比如我实在是太冷了,准备去XXX,根据前面的输入判断XXX很大可能就是穿衣服,这就是序列数据。

徐静怡快速扫了一眼黑板,tanh和sigmoid激活函数的RNN如果遭遇梯度消失要如何是好?

徐静怡起身,慢条斯理地开口:tanh和sigmoid两端的梯度值都基本接近0,从求导公式可以看出有个连乘操作。而向量函数对向量求导结果为一个Jacobian矩阵,元素为每个点的导数,当矩阵中的值太大时,经过指数放大,则会产生梯度爆炸。可以设置一个梯度阈值来处理。另外梯度消失,可以用ReLU来替代tanh和sigmoid激活函数,或者用LSTM或GRU结构。

森□□授调皮的眨眨眼:回答得相当标准。你对智能编程有所研究对吗?

徐静怡点点头。

旁边忽然有一个留着长刘海的女生显然是迷妹,她再三打量徐静怡,忽然低呼:啊,难道,难道你就是直播间的超级大科学家吗?!

这名字挂在直播间不觉得,突然被人喊出来有点中二。

徐静怡:微微额首。

这里不少学生都看过那个直播,顿时引起窃窃私语,不少人对着徐静怡小声地指点,有激动的,也有不屑的。

森田教授讶异地看向助教,助教在阶梯上询问了几句后跑到森田教授那低声说。

森田教授眼前一亮,看向徐静怡,笑了笑:如何设置网络的层数rnn_layers来增强神经网络的学习能力?', '')

上一页 目录 书签 下一章
首页 书架 足迹