背景: 在内容由 AI 生成、流量由算法控制的时代,掌握数据主权是唯一的自救方式。本文记录了我完成 “Phase 1” 数字化基建的全过程。

0. 架构总览

我的目标是利用手头的 MacBook M1,零成本搭建一套企业级的 AI 开发与发布环境。

核心组件:

  • 算力层: MacBook Air (M1)
  • 容器化: OrbStack (替代臃肿的 Docker Desktop)
  • 大模型: Ollama + Phi-3 (微软开源的 3.8B 高智商小模型)
  • 编排层: Dify (本地部署的 LLM Ops 平台)
  • 发布层: Hugo + PaperMod + Vercel
graph LR
    A[MacBook M1] --> B(OrbStack)
    B --> C[Dify 容器]
    A --> D[Ollama (Phi-3)]
    C -- API连接 --> D
    D -- 生成内容 --> E[Hugo 博客]
    E -- Git Push --> F[Vercel 发布]

1. 基础设施:OrbStack 的选择

在 macOS 上跑 Docker,Docker Desktop 曾经是首选,但它太重且吃内存。我选择了 OrbStack。

优势: 启动极快,内存占用极低(待机仅几十 MB),且能与 Mac 原生网络无缝通过 host.docker.internal 互通。

2. 智能引擎:Ollama + Phi-3

为了实现离线可用,我使用 Homebrew 安装了 Ollama:

Bash brew install ollama ollama run phi3 Phi-3 虽然参数只有 3.8B,但在逻辑推理和代码生成上表现惊人,且在 M1 上推理速度极快(~50 token/s),完全满足即时生产力的需求。

3. 大脑中枢:部署 Dify

这是最关键的一步。Dify 让我不再只能和 AI 聊天,而是能构建 Workflow。

部署方式: 拉取 Dify 源码,通过 docker compose up -d 启动。

网络打通: 在 Dify (容器内) 添加模型时,Base URL 填写 http://host.docker.internal:11434,成功连接到了宿主机的 Ollama。

4. 前店建设:Hugo + PaperMod

我选择了静态网站生成器 Hugo,配合极简主题 PaperMod。

优势: 生成的是纯 HTML,无需数据库,极其安全且加载速度快。

部署: 本地 hugo server 预览,推送到 GitHub 后,Vercel 自动构建并分发到全球 CDN。

5. 自动化萌芽:Python 介入

环境搭好后,我写了第一个 Python 脚本 call_ai.py,通过 requests 库直接调用 Ollama 的 API。 这意味着:我绕过了聊天界面,拥有了直接指挥 AI 的代码能力。

下一步计划 (Phase 2) 基建已经完成,接下来是自动化流水线的构建:

编写 Python 脚本,让 Phi-3 自动生成 Hugo 格式的文章。

实现从“生成”到“发布”的全自动 Git 流水线。

2026.01.31 记录于 MacOS 本地环境。