首页

最近更新

千兆之上:家庭网络 2.5G 升级实践

, , ,
本篇文章,我们聊聊最近的一些关于家庭网络和网络设备折腾的事情,以及背后的一些小的考虑。 阅读全文

使用结构化数据管理 SSH 配置:SSH Config Tool

, , ,
随着折腾的设备和云服务器越来越多,我们本地的 SSH Config 配置越来越复杂,为了解决这个问题,最近做了一些简单的尝试。 阅读全文

使用小尺寸大模型和 Dify 清洗数据:Qwen 2.5 7B

, , , ,
本篇文章,我们聊聊如何使用最近发布的 Qwen 2.5 7B 模型来做日常低成本的数据清理工作。 阅读全文

使用 Dify 和 AI 大模型理解视频内容:Qwen 2 VL 72B

, , ,
接下来的几篇相关的文章,聊聊使用 Dify 和 AI 大模型理解视频内容。本篇作为第一篇内容,以昨天出圈的“黑神话悟空制作人采访视频”为例,先来聊聊经常被国外厂商拿来对比的国产模型:千问系列,以及它的内测版。 阅读全文

Docker 环境下使用 Traefik v3 和 MinIO 快速搭建私有化对象存储服务

, , , ,
上一篇文章中,我们使用 Traefik 新版本完成了本地服务网关的搭建。接下来,来使用 Traefik 的能力,进行一系列相关的基础设施搭建吧。本篇文章,聊聊 MinIO 的单独使用,以及结合 Traefik 完成私有化 S3 服务的基础搭建。 阅读全文

Docker 环境下使用 Traefik 3 的最佳实践:快速上手

, , , ,
Traefik 最近终于发布了大版本升级后的第一个修正版本,或许是时候正式迁移程序到新版本了。 阅读全文

便携移动工作站,端侧 AI 大模型设备折腾笔记:ROG 幻 X 和 4090 扩展坞

为了本地测试和开发更丝滑,最近入手了一套新设备 ROG 幻 X Z13 和 ROG XG Mobile 4090 扩展坞。基于这套设备,我搭了一套 Windows x WSL2 x CUDA 的开发环境。分享一下折腾记录,或许对有类似需求的你也有帮助。 阅读全文

算能端侧 AI 盒子 Stable Diffusion 一秒一张图:AirBox BM1684X

本篇文章聊聊基于 端侧 AI 计算设备,20~30 瓦功耗运行大模型的算能 AirBox。 阅读全文

从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务

, , , , ,
本篇文章聊聊,如何使用 Ollama、Dify 和 Docker 来完成本地 Llama 3.1 模型服务的搭建。如果你需要将 Ollama 官方不支持的模型运行起来,或者将新版本 llama.cpp 转换的模型运行起来,并且想更轻松的使用 Dify 构建 AI 应用,那么本文或许会对你有所帮助。 阅读全文

2024 年中总结

今年的年中总结比往年更早一些,下个月有些忙碌,所以就不做拖沓了。依旧根据惯例,从最简单的技术部分聊起。 阅读全文

更多内容