RNN初学容易弄混的一些点

1.假如batch size=2 那么这两批是使用同一套权重的,在时间步走完后一起更新同一套权重,但是这两批使用的是不同的H,更新权重时使用的梯度是两批梯度的平均。

2.RNN的数据输入时需要进行转置在one_hot的原因是一开始的输入是batchsize*timestep那么这样直接进行one_hot的结果是batchsize*timestep*vocab_size 但是在训练和预测时是通过时间步一步一步来的,于是就要先转置,把时间步放在第一维。

3.初学时总是把H和权重弄混,H是在每一个时间步都会更新的,并且根据是随机抽样还是顺序抽样决定要不要重新初始化,而权重在每一轮的时间步走完后才会更具梯度进行一次更新。

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇