文章列表

从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务

, , , , ,
本篇文章聊聊,如何使用 Ollama、Dify 和 Docker 来完成本地 Llama 3.1 模型服务的搭建。如果你需要将 Ollama 官方不支持的模型运行起来,或者将新版本 llama.cpp 转换的模型运行起来,并且想更轻松的使用 Dify 构建 AI 应用,那么本文或许会对你有所帮助。 阅读全文

CPU 混合推理,非常见大模型量化方案:“二三五六” 位量化

, , , , ,
本篇文章聊聊网上聊的比较少的具体量化操作,非常见整型位数的量化,来自让各种开源模型能够在 CPU 环境、CPU & GPU 环境混合推理的技术方案:llama.cpp 。 阅读全文

零一万物模型折腾笔记:官方 Yi-34B 模型基础使用

, , , , ,
当争议和流量都消失后,或许现在是个合适的时间点,来抛开情绪、客观的聊聊这个 34B 模型本身,尤其是实践应用相关的一些细节。来近距离看看这个模型在各种实际使用场景中的真实表现和对硬件的性能要求。或许,这会对也想在本地私有化部署和运行模型的你有帮助,本篇是第一篇相关内容。 阅读全文

本地运行“李开复”的零一万物 34B 大模型

, , , , ,
这篇文章,我们来聊聊如何本地运行最近争议颇多的,李开复带队的国产大模型:零一万物 34B。 阅读全文

构建能够使用 CPU 运行的 MetaAI LLaMA2 中文大模型

, , , , , ,
本篇文章聊聊如何使用 GGML 机器学习张量库,构建让我们能够使用 CPU 来运行 Meta 新推出的 LLaMA2 大模型。 阅读全文