图解,卷积神经网络(CNN可视化)

作者: 图通道分类: 校园学习 发布时间: 2022-04-02 13:26:59 浏览:387200 次

图解,卷积神经网络(CNN可视化)

心无所住ovo:
看了这个,有点感触。读大学也好,研究生也罢,课堂上基本上学不了多少东西,更多的是通过网络来学习。有的老师讲课通俗易懂,有的老师讲课八股文,PPT,文字游戏式教学。也不是说讲课差的水平一定差,能把知识讲的这么简洁易懂的人,对知识本身肯定是有了非常深刻的理解的,佩服[微笑]

【回复】对你们有一点点用,就是我最大的满足[调皮]
【回复】没办法,大学教材的特色是学术化,和论文一样不是给低水平的人学的,导致教学过程怎么教怎么变扭[辣眼睛]希望有一天教程是真的讲对象看成一个初学者而不是一个教授吧
【回复】是,真吃透的人两句话教会你,还越听越上瘾。
meiroa:
这种可解释的部分其实就是很早就有的手动卷积,但神经网络最神奇的还是后面全连接和gap等操作算出个loss反向传播后能让前面的卷积核找到最佳结构

【回复】回复 @蓝天白云小草123 :对于提取低级特征来说是定死的,比如拉普拉斯算子等。而对于目标识别等提取高级特征的深度卷积网络,卷积核是初始化后经过反向传播来更新参数。
【回复】回复 @蓝天白云小草123 :我说的结构不是特指形状,而是参数分布,极端一点一个卷积核如果某个位置学习到的参数接近0那不相当于那里多了个洞么?
【回复】回复 @蓝天白云小草123 :根据设定的超参数学习率lr,每轮都会调整一次lr来改变参数变化速度
图通道:
给我五分钟,解释卷积神经网络! (需获得小学学位才能看懂)

【回复】真的吗[星星眼]我小学毕业了[星星眼]
【回复】回复 @271828182854 :大便通畅!
Mobiusium:
也就是说 卷积是寻找特征 池化是压缩数据 激活是加强特征

【回复】回复 @黑cyc宇 :激活是为了加入非线性。全链接之间如果没有激活,那么就和线性回归一样。
【回复】对,这也是我前一阵子刚理解的,然后全连接应该是为了进行非线性分类
【回复】回复 @黑cyc宇 :这个说起来和机器学习里面的SVM有点关系,全连接层的激活函数就类似于SVM里面的核函数。比方说二维的圆环,内环和外环是线性不可分的,但是采取合适的核函数,将特征维度上升到三维,可能就线性可分了。当然不止是升维,降维或者同维度也是可以的,关键就在于激活函数将原始数据进行了重新分布,变得线性可分。在低维度看着是曲面或者曲线,实际上在高维有一个超平面把数据分开了。神经网络中的激活函数应该分为两类,最后一层和中间层,中间层就是刚才说的让数据重新分布,最后一层是把超平面分割开的区域归类。
杨阿喵_Yakira:
卷积核是怎么得来的?只能靠人手动输入吗

【回复】回复 @尚关泓 :需要设置的是卷积核的大小等参数,至于每个位置是什么值是通过训练优化出来的。
【回复】回复 @尚关泓 :卷积核的形状是由人定的,里面什么参数则是训练出来的,如果你套用别人的模型,那就不需要担心这个形状,如果你自己改良或者研发什么的,那才需要
【回复】回复 @图通道 :所以得看调参水平了是不[doge]那如果我要识别一个兔子,这怎么设置卷积核的参数呢?
痛点导演:
简单明了 。。。 为毛我之前在b站看了一大堆 没有能看懂的。。。 这个一看就明白了。。。

不是猪猪凡:
讲的真的好,本科学信号卷积卷到考研才被迫弄懂,好多知识都是在未来的某个时间点突然想明白的,课堂上不明白也没地方问。要是当时能看到类似这种的视频,我应该也不会有那么多课考低分了。

【回复】如果已经考上研那就不需要在意分数了,分数没啥意义,每个人对事物的接受速度不同。像我自己就是学了一个学期的课直接考试可能分不高,但是中间间隔半个学期左右就算这期间啥也不复习,反而有些东西自然而然就理解了,感觉我的大脑对新知识需要一个解码的时间。
【回复】回复 @Yozuki_E : 我也有同样的经历[笑哭]
【回复】我觉得大脑在晚上也在偷偷加工知识,只是你不知道[doge]
逃亡远方:
声音实在太小了,要是能大一点就完美了

【回复】在宿舍厕所录的音,太大了怕尴尬[doge]你把音量调高就行了
【回复】捕捉黄嘉琪[珈乐Carol_皇珈骑士]
【回复】回复 @图通道 : 主要up你声音会忽大忽小[妙啊]
kbr19:
2分47秒的地方可以强调一下是矩阵的内积[doge][doge],而不是矩阵乘法,视频做得好棒[保卫萝卜_哇]

【回复】是的,不太严谨啦。不过还好给出了计算公式~应该不会有太大的误导。
【回复】回复 @图通道 : 太细了!非常感谢学长!功德无量
尚关泓:
这个动画居然是matlab做的,没想到[哦呼]

abdullahyang:
最近课程作业正好做cnn相关的项目,之前一些理解上的模糊在这里搞明白了,谢谢up!

【回复】回复 @蒙古风暴龙王 :[珈乐Carol_决明子]
【回复】黄嘉琪都是很有用的人捏[珈乐Carol_富贵儿]
Natuki丶:
总感觉现在的论文不是讲的越易懂越好,而是越简洁越好越“专业”越好,至于能不能让小白看懂他们可不管,白纸黑字写的很清楚你不懂自己补课去,像up这样能把晦涩的东西给我这个小白讲的明明白白的不多了

库巴亚西康娜醬:
通俗易懂,比网上其他讲一大堆云里雾里的好多了 [向晚_喜欢]

数学 科普 神经网络 matlab 数学建模 经验分享 深度学习 cnn 卷积神经网络 学习帮帮团

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!