Skip to content

Latest commit

 

History

History

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 
 
 
 
 
 
 
 
 

README.md

第十章 ResNet

Chap10-1 CIFAR-10

  • 一共十类物体
  • 32*32 6000张*10

相关待解决疑惑

  • 网络中间隔了一层自己的flatten为啥梯度还能回传
    • 好像是那个grad_fn里边存了他三生三世的来源,如下边那个图
  • 那个dataloader返回了什么?
    • 他那个Random是每个epoch返回不一样的吗?
    • 看了一下每个epoch确实是吃了60000张图,epoch本身并没有变大
  • optimizer里边记录的梯度会随着一个个batch进行累加,那么我直接累加一个epoch岂不是最好的?
    • 实验了下短epoch内,效果没有一个epoch更新一次好
    • 另外仿佛不用改lr,他的梯度derta理论上应该直接是原来的n倍了

Chap10-2 ResNet

  • 感觉那个每一个nn.Module出来的小朋友好像都会记录上一层和自己的关系
  • 仔细瞅了一眼,好像tensor会自己把之前自己怎么过来的记得清清楚楚,方便反向传播
  • 反传
  • F.adaptive_avg_pool2d(x, [1, 1]) 强行pool到目标大小
    • 不是插值,他就是单纯的取整