MJJ论坛

 找回密码
 注册
楼主: youshao

龙虾怎么配本地模型跑

[复制链接]
发表于 2026-3-11 10:11:21 | 显示全部楼层
我3090显卡 双e52666洋垃圾 128g内存 ollama搭建了qwen3.5 27b,小龙虾本地用,回答一个“介绍一下你自己”,用了大概6分多钟。
发表于 2026-3-11 10:47:56 | 显示全部楼层
minimax 最便宜套餐,29 一个月。够用了的。
比本地搞强了 n 个次方。虽然比不上 opus 这些,但龙虾完全足够
发表于 2026-3-11 12:00:37 | 显示全部楼层
小参数模型+一个龙虾服务,跑肯定可以跑
发表于 2026-3-11 12:55:48 来自手机 | 显示全部楼层
豆包不够你用嘛
发表于 2026-3-11 15:09:19 来自手机 | 显示全部楼层
从带宽焦虑变成了token焦虑
发表于 2026-3-12 04:04:59 | 显示全部楼层
不过确实好用

发表于 2026-3-12 09:21:24 | 显示全部楼层
本地ai跟傻子一样能用吗,基本上同配置吧,不过内存是64。 早就放弃本地的弱智ai了。
发表于 2026-3-12 11:35:05 来自手机 | 显示全部楼层
本地AI=弱智,不要自己气自己
发表于 2026-3-12 12:30:25 来自手机 | 显示全部楼层
智谱有免费模型,就是很蠢
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|MJJ论坛

Copyright MJJ论坛 © 2022 All Rights Reserved.

快速回复 返回顶部 返回列表