背景: 在内容由 AI 生成、流量由算法控制的时代,掌握数据主权是唯一的自救方式。本文记录了我完成 “Phase 1” 数字化基建的全过程。
0. 架构总览
我的目标是利用手头的 MacBook M1,零成本搭建一套企业级的 AI 开发与发布环境。
核心组件:
- 算力层: MacBook Air (M1)
- 容器化: OrbStack (替代臃肿的 Docker Desktop)
- 大模型: Ollama + Phi-3 (微软开源的 3.8B 高智商小模型)
- 编排层: Dify (本地部署的 LLM Ops 平台)
- 发布层: Hugo + PaperMod + Vercel
graph LR
A[MacBook M1] --> B(OrbStack)
B --> C[Dify 容器]
A --> D[Ollama (Phi-3)]
C -- API连接 --> D
D -- 生成内容 --> E[Hugo 博客]
E -- Git Push --> F[Vercel 发布]
1. 基础设施:OrbStack 的选择
在 macOS 上跑 Docker,Docker Desktop 曾经是首选,但它太重且吃内存。我选择了 OrbStack。
优势: 启动极快,内存占用极低(待机仅几十 MB),且能与 Mac 原生网络无缝通过 host.docker.internal 互通。
2. 智能引擎:Ollama + Phi-3
为了实现离线可用,我使用 Homebrew 安装了 Ollama:
Bash brew install ollama ollama run phi3 Phi-3 虽然参数只有 3.8B,但在逻辑推理和代码生成上表现惊人,且在 M1 上推理速度极快(~50 token/s),完全满足即时生产力的需求。
3. 大脑中枢:部署 Dify
这是最关键的一步。Dify 让我不再只能和 AI 聊天,而是能构建 Workflow。
部署方式: 拉取 Dify 源码,通过 docker compose up -d 启动。
网络打通: 在 Dify (容器内) 添加模型时,Base URL 填写 http://host.docker.internal:11434,成功连接到了宿主机的 Ollama。
4. 前店建设:Hugo + PaperMod
我选择了静态网站生成器 Hugo,配合极简主题 PaperMod。
优势: 生成的是纯 HTML,无需数据库,极其安全且加载速度快。
部署: 本地 hugo server 预览,推送到 GitHub 后,Vercel 自动构建并分发到全球 CDN。
5. 自动化萌芽:Python 介入
环境搭好后,我写了第一个 Python 脚本 call_ai.py,通过 requests 库直接调用 Ollama 的 API。 这意味着:我绕过了聊天界面,拥有了直接指挥 AI 的代码能力。
下一步计划 (Phase 2) 基建已经完成,接下来是自动化流水线的构建:
编写 Python 脚本,让 Phi-3 自动生成 Hugo 格式的文章。
实现从“生成”到“发布”的全自动 Git 流水线。
2026.01.31 记录于 MacOS 本地环境。