V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
39
相关节点
 显示 34 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 74 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  
adrianzhang Mac 上 VS Code 使用什么插件可以使用 Ollama 本地模型?
adrianzhang  •  6 小时 59 分钟前  •  最后回复来自 HankYao
2
leoSup 离网 Centos 服务器部署 Qwen-2.5-Coder
leoSup  •  1 天前  •  最后回复来自 dcdlove
6
Livid Llama 3.3 70B
Livid  •  4 小时 22 分钟前  •  最后回复来自 beginor
21
Leon6868 Qwen2.5 72B 是最好的本地代码补全模型
Leon6868  •  2 天前  •  最后回复来自 pakro888
15
mdb 关于运行 Lightrag 官方示例报错的问题
mdb  •  6 天前  •  最后回复来自 Xs0ul
1
fid 8x4090 离线部署 Qwen2.5 求助
fid  •  7 天前  •  最后回复来自 fid
40
Livid exo + MindMac = 完全跑在 localhost 上的接近 ChatGPT 的体验
Livid  •  9 小时 32 分钟前  •  最后回复来自 Livid
15
ttut 本地模型如何优化"大"文件?
ttut  •  18 天前  •  最后回复来自 zachariahss
1
ychen997 推荐一个最近很喜欢的自部署书签管理 Hoarder
ychen997  •  19 天前  •  最后回复来自 mooyo
1
Jaie mac 有什么方案本地跑 ai 字幕
Jaie  •  19 天前  •  最后回复来自 qbmiller
9
kevan 求助,我笔记本的 4060 跑 语言模型很困难吗?
kevan  •  58 天前  •  最后回复来自 chronos
1
1  2  3  4  
第 1 到 20 / 共 74 个主题
27 人收藏了这个节点
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   3173 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 24ms · UTC 10:42 · PVG 18:42 · LAX 02:42 · JFK 05:42
Developed with CodeLauncher
♥ Do have faith in what you're doing.