中文版LLAMa3 70B,性能强化,零损耗,震撼登场!
工作也就图一乐:
卧槽[doge]up主把我的想法实现了[星星眼]我测试下来发现qwen14b跟qwen32b翻译差不多,7b及以下翻译有些拉了
门的耳朵:
多开模型,利用不同模型的专长来编排任务。本质上就是多agent了的!
飓风AI大白学长:
我比较感兴趣的是八张2080ti显卡怎么塔建起来的,跑模型时,显存能叠加吗,性能是单张的几倍
【回复】回复 @飓风AI大白学长 :性能指的是什么?
【回复】回复 @门的耳朵 :意思是显存不能叠加,只能性能叠加,问一个专业的问题,如果用一块服务器主板,插四到八张2080ti,那性能能达到多少高,
【回复】回复 @门的耳朵 :模型并行?
不让注销的恐惧:
这个好玩~给洋诗人配个本土翻译,哈哈~
新的音乐:
另外如果不是双2080,而是4090+2080在同一主板上,又能否同时跑同一个模型?
科技猎手 人工智能 AI FastGPT Qwen LLAMa3 本地大模型搭建 语言大模型