如何系统的深入 LLM?求资源 lemoon • 286 天前 • 最后回复来自 Morriaty | 12 |
7B 大模型不量化, 16G 显存就差那么一点儿,难道消费级显卡只有 90 系能跑? CatCode • 281 天前 • 最后回复来自 basncy | 6 |
Google Gemma 开源没人讨论下吗? Jinnrry • 289 天前 • 最后回复来自 snowflake007 | 54 |
ollama 平时不使用的时候会占用内存吗? coinbase • 292 天前 |
有人买英特尔 14 代 ultra 系列的 cpu 了么,里面的 npu 运行 ollama 速度大概什么样? PungentSauce • 293 天前 • 最后回复来自 Track13 | 1 |
运行 LM Studio 的电脑硬件配置 cmonkey • 215 天前 • 最后回复来自 fushenzhi | 11 |
ollama 推出 windows 版的 preview,可以在本地跑大模型,在老机器上跑感觉效果不错 frankyzf • 299 天前 • 最后回复来自 frankyzf | 6 |
求推荐 基于本地文件的大模型? dropdatabase • 313 天前 • 最后回复来自 luguhu | 5 |
有人(个人)自己使用开源的 LLM 大模型吗? yuyue001 • 321 天前 • 最后回复来自 kennylam777 | 66 |
各位大佬,想玩玩 70B 参数规模的大模型,有没有什么推荐的云服务? Int100 • 331 天前 • 最后回复来自 akin520 | 4 |
AI(大模型)本地化项目 和 部署设备 Int100 • 335 天前 • 最后回复来自 Int100 | 6 |
有没有类似 bob 那种 all-in-one LLM 的 plugin GaryHu • 352 天前 • 最后回复来自 GaryHu | 4 |
有没有自己电脑上跑大模型的大佬啊 suqiuluck • 358 天前 • 最后回复来自 xbird | 21 |
有没有一些小一点的 llm 项目可以在 k8s 上跑的炼丹 xinmans • 2023-11-23 18:34:10 +08:00 • 最后回复来自 frankyzf | 8 |