【好课推荐】深度学习与PyTorch入门实战

作者: 生信曲线分类: 校园学习 发布时间: 2021-01-21 13:20:10 浏览:248514 次

【好课推荐】深度学习与PyTorch入门实战

孜然怪:
把老师的仓库里没有写的代码自己写了一下放在博客里了https://www.cnblogs.com/zranguai/p/14560666.html

无形忍者:
推荐一下沐神的课《动手学深度学习》,免费的直播课程,基于pytorch框架、TensorFlow框架的源码都有。感觉很不错,比较适合喜欢边学理论知识边敲代码的,欢迎关注:https://github.com/Miraclelucy/dive-into-deep-learning

【回复】回复 @时间管理大师1 :买个梯子[doge]
微凉衣柜:
https://github.com/dragen1860/Deep-Learning-with-PyTorch-Tutorials 课程github代码

【回复】回复 @yuzhuopu :直接拖到所在文件夹里就行
【回复】请问一下,lessong的.csv文件应该怎么弄到pycharm里用
lelouczhero:
第38p交叉熵对于信息熵的概念讲错了,熵越大不确定性越大,熵越小不确定性越小,当一个值的概率是0.999时,大概率选择这个值,所以不确定性就小了,所以熵就小了

【回复】回复 @lelouczhero :嗯是信息熵越小不确定性越大,昨天看太多了。看的有点头大没看清。
【回复】回复 @我说我当不了村长 :建议你看一下信息论
【回复】同学我38p没看懂搜了半天看了一下,这个概念好像在信息学和统计学里面它不一样,这个龙老师讲的是对的。你看一下这个问题下面第一个答主说的希望对你有帮助。https://www.zhihu.com/question/274997106/answer/1222518795
萌新程序员赚钱版:
讲的不细,好多地方都讲的不明不白,初学者不建议看,但是就是比较全了

【回复】回复 @我的loss下不来呢 :感觉李沐那个也不适合初学
【回复】回复 @你的新疆羊肉串没给钱 : b站直接搜pytorch,我是土堆,刘二大人,这两个都不错
【回复】回复 @_倾城_ : 最近发现B站 李沐讲的那个不错
大白666661:
欢迎大家来看我的专栏笔记,蟹蟹https://www.bilibili.com/read/cv10882009

欧米茄社长:
这个老师讲课风格不适合新手,新手理解起来难度十分大,我是配合Andrew Ng的Deep Learning一起食用的,感觉好了很多,不多说,Andrew Ng YYDS!!! 链接:https://www.bilibili.com/video/BV1FT4y1E74V?p=117

【回复】回复 @跳变的音符 :二者联系紧密,没办法完全分开的
【回复】吴恩达的课 怎么机器学习和深度学习混着讲啊
1784973208:
这老师的举例子,只会让本来蒙蔽的你,更mb

【回复】这门课比较适合已经有点基础 但是对整体知识没有一个清晰框架的人听
【回复】回复 @真系噶点解嘅你好叻啊 :好的好的感谢
【回复】回复 @卐言无惑卐 :好的好的,老师布置了别的任务,也没再看这个视频
丶阿崩:
p38的熵的概念把我整懵了。。。我觉得应该是:中奖概率越均衡,是否中奖就越难确定,信息越混乱,因为不知道会不会中奖,熵越大。反之,中奖概率越大,那么中奖这件事就越确定,信息越稳定,因为0.999的概率中奖几乎是肯定的,所以熵越小。

【回复】回复 @kakaymi :这个是定义,说大小时候跟正负关系不大
小鸡煮水饺:
龙老师在TensorFlow2的课不是说不用学pytorth吗[微笑]

【回复】一般是工业上用tensorflow多,学术研究上用torch多
【回复】回复 @f021kdku :这你就错了 现在很多都在用pytorch了
【回复】回复 @f021kdku :读研还是得pytorch
flywithif:
弹幕真的恶臭,up主无私的分享知识已经非常棒了,自己基础不好就不要怪别人讲的不好,有些专业名词肯定只能说英语啊。支持感谢 up主。

你代码怕是有bug:
已经看了1/3了,我觉得讲的真的很好,看完就3连[打call][打call]

【回复】看完了,收获很大,前半部分CNN部分都能听懂,GAN 部分就有点听不懂了[笑哭]
【回复】回复 @bili_61853509802 : 想问下老哥你看的时候是个什么基础,我这只看过吴恩达机器学习的小白看的很吃力,,,

课程 RNN/GAN/WGAN 生物信息学 经验分享 深度学习 卷积神经网络 TensorFlow 学习心得 PyTorch 感知机

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!

更多相关阅读