唯爱ts

文章
0
评论
1
推荐
0
收藏
0
社区会龄
16 个月
个人网站
--
个人简介
还没有输入个人简介……

评论了

  • 2019-11-21 15:15

    p153 页里面的SoftmaxWithLoss类中的backward函数dx求得值为何要/batch_size呢?正常传递self.y-self.t相减完每一行不就是一个数据的y-t吗,如果/batch_size,那矩阵里的每一个差值都将变小啊