转跳到内容

分享一些个人尝试大语言模型部署的经验


只显示该作者

只有该作者的内容显示中。 返回到主题

推荐贴

:NEKOMIMI_PARADISE_27:

只有8G显存就去挑战32B模型,大部分负担都在内存吧

这样速度自然很难快得起来,想提高速度还是要用显存尽可能整个容纳

之前风子用Qwen 14B模型平均回复速度大约在20~40秒左右(看具体情况)

框架是oobabooga

,由奈々原風子修改
链接到点评
×
×
  • 新建...

重要消息

为使您更好地使用该站点,请仔细阅读以下内容: 使用条款