设为首页
收藏本站
切换到宽版
用户名
Email
自动登录
找回密码
密码
登录
注册
快捷导航
论坛
BBS
排行榜
Ranklist
搜索
搜索
热搜:
香港vps
香港VPS
amh
机柜
vps
分销
VPS
域名出售
火车头
云主机
不限流量
香港服务器
美国服务器
香港
全能空间
whmcs
digitalocean
本版
帖子
用户
MJJ论坛
»
论坛
›
主机综合交流
›
美国VPS综合讨论
›
2024年底了,有可以本地部署的文本AI了吗 ...
1
2
/ 2 页
返回列表
楼主:
talaon
2024年底了,有可以本地部署的文本AI了吗
[复制链接]
rockstar
rockstar
当前离线
积分
5523
发表于 2024-10-14 16:24:04
来自手机
|
显示全部楼层
要训练对配置要求就高了,随便玩玩可以用koboldcpp,参考https://www.thsink.com/notes/1359/
回复
支持
反对
举报
Eureka
Eureka
当前离线
积分
4704
发表于 2024-10-14 16:42:44
|
显示全部楼层
1. 模型和显卡都用半精度推理,可以大幅提速,减少计算压力。
2. ollama 可以多卡推理,显存能合并。72b量化模型需要显存40G+,两张3090就不会爆显存。
3. 本地模型提问得越多,“记忆”就会越多,算力需求就会成倍增长,要考虑显卡计算能力,不能盲目追求大显存。
点评
scheme
大佬厉害,学习了
发表于 2024-10-14 20:10
回复
支持
反对
举报
1
2
/ 2 页
返回列表
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
注册
本版积分规则
发表回复
回帖后跳转到最后一页
Archiver
|
手机版
|
小黑屋
|
MJJ论坛
Copyright
MJJ论坛
© 2022 All Rights Reserved.
快速回复
返回顶部
返回列表