转跳到内容

Vinda

【会员】高级会员
  • 内容数

    117
  • 加入

  • 最后访问

  • 赢得天数

    1

关于Vinda

经济

  • 羽毛 0.00 根
  • 节操值 0.00 节操值

最近资料访问用户

最近访问块目前为禁用并且不会显示给其他用户。

Vinda的成就

村庄勇者【重建村落任重道远】

村庄勇者【重建村落任重道远】 (2/9)

  • 坛友的态度:坛友对你的内容进行表情评论了哟
  • 回音:来而不往非礼也
  • 处女作:这··这还是第一次啊!⁄(⁄ ⁄•⁄ω⁄•⁄ ⁄)⁄.
  • 破壳日:欢迎来到SS同盟

最近徽章

  1. 是的,硬件上的限制太大了。我跑14b差不多内存和显存对半,32b的Q4就只能八二开的样子,暂时只能找找小模型有没有好用的了。
  2. 嗯。。。现在配置的显存太小了,好一点的模型装不下,速度上不来,毕竟走内存的速度比显存慢太多,得以后配新机的时候才能考虑大一些的模型了
  3. 确实慢...一条回答至少几分钟,我听说lmstudio会好不少,还有kobold也有推荐的,或许会快一些?
  4. 32b起步吧,而且对话的上下文太长就容易重复,或许你可以去看看deepsex,这个模型专门拿小说训练的,特化了小说和对话,14bQ8就有不错的文笔,重复问题少了一些,但还是存在,可以期待作者后续的版本。
  5. 前言 自从ChatGPT火起来后,我就有在尝试用各家的大语言模型辅助工作学习,但是基本以网页为主,本地化部署一直是没想过的事情。直到最近Deepseek-R1大火,恰逢过年,能有比较完整的时间段去不务正业,于是我也去试了试,期间记了不少的经验记录。刚好借这个机会,把分散的记录整理成贴,分享一下我作为一个小白,摸索AI模型本地化部署的一些经验,欢迎来交流心得体会呀。 虽说是经验分享,但其实我也是从其它大佬发布的教程学习怎么部署和应用,写这篇帖子的过程,也是重整我脑子里散乱知识的过程,参考过的教程链接我会放到最后。因为我本人不是计算机专业出身,所以会有很多的疏漏和不专业,还请多担待啦。 内容目录 正文 目前来说个人电脑部署的小模型,如果要用来工作,性能上还是不太行。就像Deepseek-R1的蒸馏小模型,至少14b起步才能不那么智障,最大的优点就是隐私性。还是需要明确自己的需求,如果没有什么必须的理由,接入API可能性价比和体验才是最好的。当然,都在这里了,大伙多少会有一些大胆的想法需要AI帮忙实现俺也一样,这个时候隐私性确实是最重要的。所以我会从部署模型、配置交互用的前端软件、挑选合适的模型,这几个方面分享我的经验。 我的设备是台笔记本:i7-11800H(8核16线程)+RTX3070(8G显存)+32G运行内存(3200MHz,16G×2双通道,ddr4)+Windows10系统。 应该属于比较主流的个人电脑配置,供大伙参考。 一、使用Ollama作为框架,在个人电脑部署AI大语言模型的基本流程 Ollama的使用还是比较方便的,尤其是有用过Docker和Conda的筒子,用这个起来应该是没有什么障碍。我做了几张一图流说明。 二、使用CherryStudio作为交互前端,将本地模型接入前端聊天的基本流程 三、从Huggingface的镜像站获取感兴趣的自定义模型 先施工到这,明天继续
  6. 此内容有访问限制,请到内容页面查看。
  7. 此内容有访问限制,请到内容页面查看。
  8. 此内容有访问限制,请到内容页面查看。
  9. 此内容有访问限制,请到内容页面查看。
  10. 此内容有访问限制,请到内容页面查看。
  11. 此内容有访问限制,请到内容页面查看。
  12. 此内容有访问限制,请到内容页面查看。
  13. 此内容有访问限制,请到内容页面查看。
  14. 此内容有访问限制,请到内容页面查看。
  15. 此内容有访问限制,请到内容页面查看。
×
×
  • 新建...

重要消息

为使您更好地使用该站点,请仔细阅读以下内容: 使用条款