为什么到了2024,国内大模型很少套壳了!

作者: 卢菁博士AI课堂分类: 计算机技术 发布时间: 2024-05-08 17:00:00 浏览:2869 次

为什么到了2024,国内大模型很少套壳了!

小中爱撒谎:
没有套壳,但用了人家开源的模型加自己训练数据。用了ASOP不算套壳安卓。没有假唱,加了提前录制好的声音而已。这就陷入概念问题了。怎么样才算套壳?用别人开源模型不算,用别人数据不算,用人家开源模型和数据都不算,因为我加了自己数据。[doge]

PairZhu:
不同大模型的架构本来就很少有创新之处,就算有创新整体的网络结构也不会有太大改动的,决定大模型性能的主要是训练数据和训练方式,套壳只可能出现在一些小型的创业公司,直接使用服务盈利的。而大厂压根不可能套壳,靠prompt压根不可能让他表现的像新的模型,而且如果套壳gpt压根就是亏钱的生意,并且长期来看也不可能创造收益。至于说是开源模型的套壳,如果你试过那些国外的开源模型,就会发现它们的中文性能简直没眼看,哪怕是微调之后也基本都没法用,必须都得重新训练,而如果只是用了同样的模型架构,完全是自己训练的,那根据我前面的说法,这完全不能算是套壳。况且国内发布的开源大语言模型可不比国外少

【回复】回复 @叹叹的你 :openai之前,这个transformer还是谷歌提出的呢你听说过谷歌之前搞了什么出来吗?
【回复】回复 @半枫菘蓝 :算法指的又不是mlp,mlp是现在神经网络的基础,transformer gan diffusion这种本身就比较偏工程的算法也是学术界的事情,哪怕是训练方法还是一种模型在新领域的尝试都是可以发表在论文的,工程上的事情也是学术上的事情,企业@能做的基本都不是从0到60,而是从80到90这种优化
【回复】回复 @叹叹的你 :相关不代表因果[辣眼睛],稍微有点脑子,openai的技术不是凭空出现的,它不过是第一个吃到螃蟹的人,原有的技术之前就已经准备好了,只是还没人敢投入那么多去做这个应用或者说其他人方向错了openai碰巧对了。当成果出来之后其原理已经不言自明了,因为其所使用的技术早就发表成论文了
ab_poirot:
只要换了皮就可以不叫套壳叫自研[doge]

kitermess:
你在说什么?模型开源了,数据和训练方法对那些个掌握我国网民数据的大厂来说难吗?亏你还卖课程的,说这种不着边际的话,再说了你是怎么知道他没有套壳?基于开源代码上的修改再套壳,国内可太会了

人工智能 神经网络 AI chatgpt 深度学习 大模型 人工智能课程 多模态 AIGC 大模型训练

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!

更多相关阅读