设为首页
收藏本站
切换到宽版
用户名
Email
自动登录
找回密码
密码
登录
注册
快捷导航
论坛
BBS
排行榜
Ranklist
搜索
搜索
热搜:
香港vps
香港VPS
amh
机柜
vps
分销
VPS
域名出售
火车头
云主机
不限流量
香港服务器
美国服务器
香港
全能空间
whmcs
digitalocean
本版
帖子
用户
MJJ论坛
»
论坛
›
主机综合交流
›
美国VPS综合讨论
›
AI模型自己本地运行和直接使用官网API的效果一样的吗 ...
返回列表
查看:
1471
|
回复:
8
AI模型自己本地运行和直接使用官网API的效果一样的吗
[复制链接]
redneck
redneck
当前离线
积分
13338
发表于
前天 21:28
|
显示全部楼层
|
阅读模式
一样吗?
回复
举报
akatom
akatom
当前离线
积分
7023
发表于
前天 21:42
|
显示全部楼层
一样的吧
回复
举报
hkvip8
hkvip8
当前离线
积分
8404
发表于
前天 21:42
来自手机
|
显示全部楼层
不一样,本地搭建的模型,你能感觉到呆板没有灵魂,和对接官网api不一样。本地模型需要训练,联网搜索,学习等等。
回复
支持
反对
举报
宁静致远
宁静致远
当前离线
积分
15987
发表于
昨天 10:02
|
显示全部楼层
试用装和正式版。
回复
支持
反对
举报
DataCenter
DataCenter
当前离线
积分
719
发表于
昨天 10:10
来自手机
|
显示全部楼层
本地能跑的参数很少,云厂商一般都几百B的超大模型
回复
支持
反对
举报
lotus
lotus
当前离线
积分
3145
发表于
昨天 11:31
来自手机
|
显示全部楼层
4块4090勉强能跑
回复
支持
反对
举报
jiao1396009596
jiao1396009596
当前离线
积分
12925
发表于
昨天 11:38
|
显示全部楼层
你本地跑不起来 官网满血的模型 成本太高 还不如api
回复
支持
反对
举报
ATOM
ATOM
当前离线
积分
24449
发表于
昨天 11:42
|
显示全部楼层
性能当然官方好,但是可用量当然是本地无限制。
回复
支持
反对
举报
日本人
日本人
当前离线
积分
4123
发表于
昨天 19:15
|
显示全部楼层
同一模型效果基本一样,本地反而更稳定不会被限流。不过本地跑看显卡,70b以上没48g显存别想流畅。api方便但高峰期会堵,有些模型api根本不提供。本地建议用llama.cpp量化版,3080以上显卡能跑32b。
回复
支持
反对
举报
还有一些帖子被系统自动隐藏,点此展开
返回列表
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
注册
本版积分规则
发表回复
回帖后跳转到最后一页
Archiver
|
手机版
|
小黑屋
|
MJJ论坛
Copyright
MJJ论坛
© 2022 All Rights Reserved.
快速回复
返回顶部
返回列表