[NS :
本来想让codex用,没想到chat变高贵了,最后用上了claudecode,也行下了好多模型,踩了很多坑,测试三种方式炼丹,发现ollama最省内存,方便调用第三方,lmstudio最简单,llama轻巧但配置麻烦amd24g显卡期间折腾了好久,有些模型版本挺坑的,最后发现coder30b速度达到100t/s,套
oursw] 道爷我成啦 本地模型终于用上ClaudeCode本来想让codex用,没想到chat变高贵了,最后用上了claudecode,也行下了好多模型,踩了很多坑,测试三种方式炼丹,发现ollama最省内存,方便调用第三方,lmstudio最简单,llama轻巧但配置麻烦amd24g显卡期间折腾了好久,有些模型版本挺坑的,最后发现coder30b速度达到100t/s,套