卷积层的反向传播
CNN - Backpropagation of a Convolutional Layer
我正在构建一个只有卷积层的CNN(目前为止)。
我使用了与人工神经网络相同的算法。因为Conv层没有完全连接并且共享权重,我不确定如何计算梯度和适当的统计数据。我试图取Delta权重的平均值,并使用平均值进行反向支撑。经过几次测试后,我认为这不起作用,并且它使迭代计算非常慢(每秒1次迭代而不是每秒80次)。
我如何正确地backprop转换层?
如果有人有任何关于其他层(如池)的反向支持的信息或链接,那就太好了。
有许多SGD(随机梯度下降)算法可以选择反向传播。你可以试着看看其中的一些,比如——动力——AdaGrad——AdaDelta
相关文章:
- 具有可分离内核的 2D 模糊卷积
- CUDA 使用共享内存平铺 3D 卷积实现
- OpneCV - 保留十进制的卷积
- C++中复向量与实向量的二维卷积
- 如何在张量流上使用 fp16(Eigen::half) 进行卷积
- 如何在卷积程序的 c++ 中优化嵌套循环
- 带有多通道内核的图像卷积
- 在 Caffe 中,如何修改特定卷积层的行为?
- 使用膨胀卷积的语义分割中的上采样
- 使用 OpenCL 进行图像卷积中的参数大小无效
- C++的全卷积网络训练
- 卷积二维与深度卷积二维计算
- 优化的图像卷积算法
- 我没有从使用 FFTW 的重叠添加 FFT 卷积中获得预期结果
- 卷积:卷积中的最后一个元素永远不会正确
- 如何在Caffe中对复发性卷积神经网络进行建模
- 如何在C 中而不是Prototext中启动卷积层
- 使用高斯模糊进行图像卷积,可以加速
- 自定义Caffe Windows CPP中的卷积层
- 卷积层的反向传播