CNN解惑记录 1d卷积 channel数 卷积后非线性变换
1.CNN教程上讲解的例子一般都是图像,所以卷积也是2d的,但实际应用中我看到数据挖掘问题用的是conv1d,1d卷积,确实1d卷积就行了,没必要强行排成2d的,1d卷积就是忽略高度,高度是1,然后用一个1*N的卷积核去席卷原始输入
2.在CNN的课程讲解中,对于多channel的情况,告诉filter的size是n,那么filter必然是n*n*channel数,如果是1d卷积,height都是1,所以是1*n*channel数,l层的channel数只和l-1层的filter个数有关
3.卷积后要加一个bias,神经网络里面叫偏差,我的理解是常数项(这里可以去了解一下,为什么叫这个名字),然后必有一个非线性变换,我看到基本上都是用relu,relu函数可以表达成max(x,0)
2.在CNN的课程讲解中,对于多channel的情况,告诉filter的size是n,那么filter必然是n*n*channel数,如果是1d卷积,height都是1,所以是1*n*channel数,l层的channel数只和l-1层的filter个数有关
3.卷积后要加一个bias,神经网络里面叫偏差,我的理解是常数项(这里可以去了解一下,为什么叫这个名字),然后必有一个非线性变换,我看到基本上都是用relu,relu函数可以表达成max(x,0)
留言
張貼留言