告别“服务器繁忙”:JuiceFS 助力打造专属 DeepSeek 牧场

春节期间,DeepSeek 的横空出世引发了广泛关注。作为一款强大的语言模型,DeepSeek 因其强大的功能和广泛的应用而受到用户的热烈追捧。然而,随着使用量的不断增加,我们在使用过程中经常遇到“服务器繁忙”,令人破防。为了解决这一问题,本文将探讨如何通过本地部署 DeepSeek 服务,打造一个高效自主的使用环境。通过结合 JuiceFS 的存储能力和 Ollama 的部署优势,用户可以轻松建立自己的“DeepSeek 牧场”,从而实现更灵活、更高效的模型使用体验。
2025/02/05 17:56 下午 posted in  大模型

Ollama + JuiceFS:一次拉取,到处运行

Ollma 是一个简化大模型部署和运行的工具,一方面通过提供类 Docker 的使用方式,运行一个大模型实例就和启动一个容器一样简单,另一方面,通过提供 OpenAI 兼容的 API,磨平大模型之间的使用差异。
2024/08/27 18:03 下午 posted in  大模型

浅析 MemGPT

MemGPT 针对 LLM 上下文有限的困境,参考操作系统的虚拟内存管理,提出了虚拟上下文的概念,分为主上下文和外部上下文,实现了无限 token。
2024/07/04 21:59 下午 posted in  大模型

详解 SELF-RAG 框架

自我反思检索增强生成(SELF-RAG)是一种通过检索和自我反思提高 LLM 质量和事实准确性的框架,而不损害 LLM 的原始创造力和多功能性。
2023/12/27 21:53 下午 posted in  大模型