要想做好人工智能,我们需要这个搭造电脑的方式

作者: Veritasium真理元素分类: 科学科普 发布时间: 2022-03-09 11:20:08 浏览:68946 次

要想做好人工智能,我们需要这个搭造电脑的方式

Michael栉雨:
[吃瓜]所以说现代晶体管技术最大的成就其实不只是能制造大规模数字电路,更是提供了一个通用的制造微小物品的方法,这也使得我们能在数字电路单元的尺度上进行模拟元件的搭建[星星眼]

【回复】这玩意发明出来本来就是做模拟器件用的,后来发现数字的应用场景相较更大而已
【回复】突然想到这样的话模拟元件其实也没有突破数字电路单元的单位数量限制,只是在误差允许下降低了神经网络矩阵运算的功耗问题,未来可能还需要看摩尔定律能不能继续[吃瓜]
【回复】回复 @三眼焱虎 :我就一直看着忆阻器到现在也搞不定
海边的孤星:
事实上人脑的神经元电位叠加体现出模拟特性,而动作电位的阈值体现出数字特性。所以模拟用来计算,数字用来提升信噪比必然是未来的走向。

【回复】但目前的AI软件结构还没有确定,连底层的特征提取结构都还有transformer后来居上。更不要说高级的结构。数字计算机的通用性是快速迭代试错的唯一解。模拟芯片的黄金时期估计还很远。
【回复】回复 @海边的孤星 :还有忆阻器呢
NekoCocoa:
用闪存来记忆模拟数据真的是个人才,这芯片看上去确实相当有前景 如果这个方案够廉价的话VRChat又可以新增动作捕捉的方式了ww

【回复】这玩意就是打算预置于Camera里面的[doge]
【回复】不过就是cmos管子这在现在闪存里也不算新技术了,毕竟mlc、tcl、plc也是相当于测量电阻后再转换成数字量
【回复】回复 @Fortheliberty :Qlc,plc就太离谱了,tlc还好
朱鸽蚊草:
以后主机上面除了中央处理器和显卡外,得再多一个模拟卡了

【回复】回复 @中午六点 :Just Monica
【回复】回复 @西奥多 :手机上的所谓ai芯片其实是一套快速矩阵运算的系统,有时候甚至不是一个特定的区域。比如高通过去就是给GPU和CPU加一套指令集完事(现在不太清楚,可能还是没有专门的区域)。 有点类似英特尔的mkl加速库和英伟达的cuda。
苦世深寒:
很久以前我就想到应该可以用模电实现神经网络,并且可能比数电要好。几个场效应管就可以实现一个加法器、乘法器,两个电阻分压就能实现除法器。并且比数电有更快的速度、更好的并行性。根据“我能想到的事,一定已经有人想到了”定律,这样的东西一定已经有人想到了,今天果然就看到了。

【回复】这定律都感觉像是每次自己有点啥新灵感都会上传到人类的集体记忆里,然后再由那个不是我的人去实践它[tv_鬼脸]
【回复】回复 @sssscreeper :其实不能小看概率的力量。七十亿是一个天文数字,从直观上根本感受不到它有多么大。再小的概率乘以七十亿次机会,都能放大到几乎必然发生。《凉宫春日的忧郁》有一段情节,讲主角心态变化的契机,就是在体育场的看台上看到密密麻麻的人海每一个人都是有着和自己一样丰富的记忆与人生。经过简单的计数却发现,即使这么多看不到尽头的人,在与人类总量相比也可以几乎忽略不计。
【回复】人类人均眼高手低,敢于去做就已经pass一群人了。
bilibili-10:
个人认为数字和模拟计算机之间是没有可比性的,谁也不会在将来替代谁。 数字强在通用性,任何物理现象和自然界能观测到实物都是有被量化的可能的,所以只要存在性能足够强大,观测量化能力足够强大的数字系统,它就能解决其性能容许内的一切问题。 模拟强在对一系列既定操作的高效执行,一个模拟系统功能可以很复杂,性能可以很强大,但只能用于计算它所设计的这一项功能,你不可能下载一个app,让这个系统做其他的事情。 某种意义上,数字系统是极端冗余化的模拟系统,正因这些冗余,可以做各种各样的丰富的操作,但同时也带来了巨额的额外开销;模拟系统则是极端简化后的数字系统的某个应用,因为做了减法,所以无论是能源还是时间开销都可能接近最小,但一个系统也只能坐着一个事情了。 就像里边举得那个小芯片与gpu的对比,小芯片拥有了无与伦比的功耗比,但gpu却可以做远比运算一次次神经网络多的事情,根据你想运行的代码,创造各种可能。

【回复】其实你说的这些是硬接线和软接线的区别。数字由软到硬例如cpu,fpga,asic。模拟的软接线器件,fpaa,不太成功,远不如fpga的火热程度。
【回复】但当模拟系统真的可以完全模拟出神经元,并且拥有比人脑更强的性能时,那就意味着真正的科技爆炸
【回复】回复 @QuadOne :确实,我之前想过买块FPAA板子来玩,结果发现暴贵性能还拉[捂脸]
superview:
国产的模拟计算神经网络芯片https://www.eet-china.com/news/202109160908.html

【回复】回复 @叼凹 :也不能说比国外快,大家都是在早期的商业化实验阶段。要真正大规模商用了才算分出快慢吧。
【回复】回复 @superview : 额,我觉得中国搞出来的ai可能就是模拟芯片处理一次,数字芯片处理一次,这样多次处理来解决算力不够的问题。不然我们还是只能抄别人的了
【回复】回复 @L-oath :模拟芯片因为精度不够,用来做训练的话不够好,适合用来做推理。假如真的能够达到闪存的容量和功耗的话,把chatgpt装在pc里不是梦[doge]
Zeakii:
建议: 所有的digital都应该翻译成“数字的”digital computer为“数字式电子计算机”或者简称“数字计算机”。 另外,置顶评论也用的“数字计算机”,为什么视频里面字幕反而使用“电子”来翻译digital?

木槿MoJi:
看完视频之后,我突然想到qlc的ssd说不定非常适合当模拟电路的运算部分,因为qlc的一个栅极有16个电压状态,这也代表着单个栅极能设定16个权重(即便最终输出只有4个结果,但是可以使判断更准确),需要编程的时候就直接往栅极写入,运算就相当于读取。

【回复】回复 @horeaper :那是重新擦写1000次,相当于换了1000次cpu[doge]
【回复】然后用1000次就坏掉是吧[吃瓜]
GSCmax:
这个公司把NAND改成了矩阵乘法专用模拟处理器

读书人_Xx:
感觉是非常适合工业生成途径的啊,但是貌似不适合多变环境。这个东西是生产出来就固定阻值了的,那就是必须训练完整以后的东西,在封闭环境内应该会有优异的体现,彻底解放工厂内一些枯燥单调重复工作(毕竟便宜)。

账号已注销:
比较类似出现过的FPAA(Field Programmable Amplifier Array),可惜没几个公司愿意造这玩意。利用浮栅晶体管的线性区也是降低成本的一个不错的想法[思考]

【回复】我就是偶然间发现运放和神经元极其相似,外加FPGA那种可改变性,如果实现运放阵列,和自编程性,这就是一个完美的自学习神经网络了[OK]
麻中麻麻子:
最后还有个双关。模拟的力量,也是“类比”的力量。类比于脑中数字与模拟的混合,AI也需要模拟和数字的混合

【回复】台湾那边一直把模拟电路叫做类比电路
丰饶之月:
用FPGA打比方不太对吧?FPGA还是基于真值表的,虽然不知道具体原理

【回复】FPGA相当于把电路组件结构模拟出来。忽略了电路本身的特性,提纯了数字电路本质。
【回复】基本单元是LUT(查找表)
febilly:
这个标题比油管上的标题好太多了,油管上面集集标题党

【回复】他已经习惯使用标题党了,但同时是一把双刃剑,他的很多“暴论”都是站在模糊的定义上(尤其是距离1m合开关那期)。比如这期听着好像模拟计算机已经扔进历史垃圾堆了,而实际上模拟IC设计从未消失(甚至国内模拟发展的比数字的好,因为数字目前还赶不上外国)。当然最后提到的浮栅MOSFET做神经网络确实是一个新角度,但很难说这个理由就能多么有力的支持前面的一串暴论。
【回复】hhha 他不是专门出过一集论标题党到底有多好用吗?
【回复】回复 @Zeakii :模拟计算机是没有大力发展,不过模拟IC一直没停吧,音视频信号,无线电信号的都需要模拟芯片
一条大河ovo:
他说的其实没问题,现在各种npu,包括显卡进行矩阵乘法运算的主要开销都在于内存太慢(与寄存器相比),无论是延迟还是带宽都远远低于sram和寄存器,以至于处理器大部分时间都在等待内存数据

【回复】他这个做法的话需要大量的adc和dac,这个可不太好做
【回复】回复 @通哥awa :但问题是有些任务是需要你做回归的呀,虽然分类可以用施密特触发器做采样
【回复】回复 @一条大河ovo :大量的adc和dac?最终可能直接退化成1位的施密特或比较器

科技 科普 人工智能 电脑 趣味科普人文 真理元素 Veritaisum

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!