Files
label_ai_service/docs/superpowers/specs/2026-04-10-ai-service-design.md

836 lines
25 KiB
Markdown
Raw Normal View History

# 知识图谱智能标注平台 — AI 服务设计文档
> 版本v1.0 | 日期2026-04-10
> 运行时Python 3.12.13conda `label` 环境)| 框架FastAPI
> 上游系统label-backendJava Spring Boot| 模型ZhipuAI GLM 系列
---
## 一、项目定位
AI 服务(`label_ai_service`)是标注平台的智能计算层,独立部署为 Python FastAPI 服务,接收 Java 后端调用,完成以下核心任务:
| 能力 | 说明 |
|------|------|
| 文本三元组提取 | 从 TXT / PDF / DOCX 文档中提取 subject / predicate / object + 原文定位信息 |
| 图像四元组提取 | 调用 GLM-4V 分析图片,提取四元组 + bbox 坐标,自动裁剪区域图 |
| 视频帧提取 | OpenCV 按间隔或关键帧模式抽帧,帧图上传 RustFS |
| 视频转文本 | GLM-4V 理解视频片段,输出结构化文字描述,降维为文本标注流程 |
| 问答对生成 | 基于三元组/四元组 + 原文/图像证据,生成 GLM 微调格式候选问答对 |
| 微调任务管理 | 向 ZhipuAI 提交微调任务、查询状态 |
系统只有两条标注流水线(文本线、图片线),视频是两种预处理入口,不构成第三条流水线。
---
## 二、整体架构
### 2.1 在平台中的位置
```
┌─────────────┐
│ Nginx 反代 │
└──────┬──────┘
┌─────────────┼─────────────┐
▼ ▼ ▼
┌─────────┐ ┌──────────┐ ┌──────────┐
│ Vue3 前端│ │ Spring │ │ FastAPI │
│ (静态) │ │ Boot 后端 │ │ AI 服务 │◄── 本文档范围
└─────────┘ └────┬─────┘ └────┬─────┘
│ │
┌───────────┼──────────────┤
▼ ▼ ▼
┌──────────┐ ┌────────┐ ┌────────────┐
│PostgreSQL│ │ Redis │ │ RustFS │
└──────────┘ └────────┘ └────────────┘
```
AI 服务**不直接访问数据库**,只通过:
- **RustFS S3 API**:读取原始文件、写入处理结果
- **ZhipuAI API**:调用 GLM 系列模型
- **Java 后端回调接口**:视频异步任务完成后回传结果
### 2.2 目录结构
```
label_ai_service/
├── app/
│ ├── main.py # FastAPI 应用入口注册路由、lifespan
│ ├── core/
│ │ ├── config.py # YAML + .env 分层配置lru_cache 单例
│ │ ├── logging.py # 统一结构化日志配置
│ │ ├── exceptions.py # 自定义异常类 + 全局异常处理器
│ │ └── dependencies.py # FastAPI Depends 工厂函数
│ ├── clients/
│ │ ├── llm/
│ │ │ ├── base.py # LLMClient ABC抽象接口
│ │ │ └── zhipuai_client.py # ZhipuAI 实现
│ │ └── storage/
│ │ ├── base.py # StorageClient ABC抽象接口
│ │ └── rustfs_client.py # RustFS S3 兼容实现boto3
│ ├── services/
│ │ ├── text_service.py # 文档解析 + 三元组提取
│ │ ├── image_service.py # 图像四元组提取 + bbox 裁剪
│ │ ├── video_service.py # OpenCV 抽帧 + 视频转文本
│ │ ├── qa_service.py # 文本/图像问答对生成
│ │ └── finetune_service.py # 微调任务提交与状态查询
│ ├── routers/
│ │ ├── text.py # POST /api/v1/text/extract
│ │ ├── image.py # POST /api/v1/image/extract
│ │ ├── video.py # POST /api/v1/video/extract-frames
│ │ │ # POST /api/v1/video/to-text
│ │ ├── qa.py # POST /api/v1/qa/gen-text
│ │ │ # POST /api/v1/qa/gen-image
│ │ └── finetune.py # POST /api/v1/finetune/start
│ │ # GET /api/v1/finetune/status/{jobId}
│ └── models/
│ ├── text_models.py # 三元组请求/响应 schema
│ ├── image_models.py # 四元组请求/响应 schema
│ ├── video_models.py # 视频处理请求/响应 schema
│ ├── qa_models.py # 问答对请求/响应 schema
│ └── finetune_models.py # 微调请求/响应 schema
├── config.yaml # 非敏感配置(提交 git
├── .env # 密钥与环境差异项(提交 git
├── requirements.txt
├── Dockerfile
└── docker-compose.yml
```
---
## 三、配置设计
### 3.1 分层配置原则
| 文件 | 职责 | 提交 git |
|------|------|----------|
| `config.yaml` | 稳定配置:端口、路径规范、模型名、桶名、视频参数 | ✅ |
| `.env` | 环境差异项:密钥、服务地址 | ✅ |
环境变量优先级高于 `config.yaml`Docker Compose 通过 `env_file` 加载 `.env`,本地开发由 `python-dotenv` 加载。
### 3.2 `config.yaml`
```yaml
server:
port: 8000
log_level: INFO
storage:
buckets:
source_data: "source-data"
finetune_export: "finetune-export"
backend: {} # callback_url 由 .env 注入
video:
frame_sample_count: 8 # 视频转文本时均匀抽取的代表帧数
max_file_size_mb: 200 # 视频文件大小上限(超过则拒绝,防止 OOM
models:
default_text: "glm-4-flash"
default_vision: "glm-4v-flash"
```
### 3.3 `.env`
```ini
ZHIPUAI_API_KEY=your-zhipuai-api-key
STORAGE_ACCESS_KEY=minioadmin
STORAGE_SECRET_KEY=minioadmin
STORAGE_ENDPOINT=http://rustfs:9000
BACKEND_CALLBACK_URL=http://backend:8080/internal/video-job/callback
# MAX_VIDEO_SIZE_MB=200 # 可选,覆盖 config.yaml 中的视频大小上限
```
### 3.4 config 模块实现
```python
# core/config.py
import os, yaml
from functools import lru_cache
from pathlib import Path
from dotenv import load_dotenv
_ROOT = Path(__file__).parent.parent.parent
# 环境变量 → YAML 路径映射
_ENV_OVERRIDES = {
"ZHIPUAI_API_KEY": ["zhipuai", "api_key"],
"STORAGE_ACCESS_KEY": ["storage", "access_key"],
"STORAGE_SECRET_KEY": ["storage", "secret_key"],
"STORAGE_ENDPOINT": ["storage", "endpoint"],
"BACKEND_CALLBACK_URL": ["backend", "callback_url"],
"LOG_LEVEL": ["server", "log_level"],
"MAX_VIDEO_SIZE_MB": ["video", "max_file_size_mb"],
}
def _set_nested(d: dict, keys: list[str], value: str):
for k in keys[:-1]:
d = d.setdefault(k, {})
d[keys[-1]] = value
@lru_cache(maxsize=1)
def get_config() -> dict:
load_dotenv(_ROOT / ".env") # 1. 加载 .env
with open(_ROOT / "config.yaml", encoding="utf-8") as f:
cfg = yaml.safe_load(f) # 2. 读取 YAML
for env_key, yaml_path in _ENV_OVERRIDES.items(): # 3. 环境变量覆盖
val = os.environ.get(env_key)
if val:
_set_nested(cfg, yaml_path, val)
_validate(cfg)
return cfg
def _validate(cfg: dict):
checks = [
(["zhipuai", "api_key"], "ZHIPUAI_API_KEY"),
(["storage", "access_key"], "STORAGE_ACCESS_KEY"),
(["storage", "secret_key"], "STORAGE_SECRET_KEY"),
]
for path, name in checks:
val = cfg
for k in path:
val = (val or {}).get(k, "")
if not val:
raise RuntimeError(f"缺少必要配置项:{name}")
```
---
## 四、适配层设计
### 4.1 LLM 适配层
```python
# clients/llm/base.py
from abc import ABC, abstractmethod
class LLMClient(ABC):
@abstractmethod
async def chat(self, messages: list[dict], model: str, **kwargs) -> str:
"""纯文本对话,返回模型输出文本"""
@abstractmethod
async def chat_vision(self, messages: list[dict], model: str, **kwargs) -> str:
"""多模态对话(图文混合输入),返回模型输出文本"""
```
```python
# clients/llm/zhipuai_client.py
import asyncio
from zhipuai import ZhipuAI
from .base import LLMClient
class ZhipuAIClient(LLMClient):
def __init__(self, api_key: str):
self._client = ZhipuAI(api_key=api_key)
async def chat(self, messages: list[dict], model: str, **kwargs) -> str:
loop = asyncio.get_event_loop()
resp = await loop.run_in_executor(
None,
lambda: self._client.chat.completions.create(
model=model, messages=messages, **kwargs
),
)
return resp.choices[0].message.content
async def chat_vision(self, messages: list[dict], model: str, **kwargs) -> str:
# GLM-4V 与文本接口相同,通过 image_url type 区分图文消息
return await self.chat(messages, model, **kwargs)
```
**扩展**:替换 GLM 只需新增 `class OpenAIClient(LLMClient)` 并在 `lifespan` 中注入services 层零修改。
### 4.2 Storage 适配层
```python
# clients/storage/base.py
from abc import ABC, abstractmethod
class StorageClient(ABC):
@abstractmethod
async def download_bytes(self, bucket: str, path: str) -> bytes: ...
@abstractmethod
async def upload_bytes(
self, bucket: str, path: str, data: bytes,
content_type: str = "application/octet-stream"
) -> None: ...
@abstractmethod
def get_presigned_url(self, bucket: str, path: str, expires: int = 3600) -> str: ...
```
```python
# clients/storage/rustfs_client.py
import asyncio
import boto3
from .base import StorageClient
class RustFSClient(StorageClient):
def __init__(self, endpoint: str, access_key: str, secret_key: str):
self._s3 = boto3.client(
"s3",
endpoint_url=endpoint,
aws_access_key_id=access_key,
aws_secret_access_key=secret_key,
)
async def download_bytes(self, bucket: str, path: str) -> bytes:
loop = asyncio.get_event_loop()
resp = await loop.run_in_executor(
None, lambda: self._s3.get_object(Bucket=bucket, Key=path)
)
return resp["Body"].read()
async def upload_bytes(self, bucket, path, data, content_type="application/octet-stream"):
loop = asyncio.get_event_loop()
await loop.run_in_executor(
None,
lambda: self._s3.put_object(
Bucket=bucket, Key=path, Body=data, ContentType=content_type
),
)
def get_presigned_url(self, bucket: str, path: str, expires: int = 3600) -> str:
return self._s3.generate_presigned_url(
"get_object",
Params={"Bucket": bucket, "Key": path},
ExpiresIn=expires,
)
```
### 4.3 依赖注入
```python
# core/dependencies.py
from app.clients.llm.base import LLMClient
from app.clients.storage.base import StorageClient
_llm_client: LLMClient | None = None
_storage_client: StorageClient | None = None
def set_clients(llm: LLMClient, storage: StorageClient):
global _llm_client, _storage_client
_llm_client, _storage_client = llm, storage
def get_llm_client() -> LLMClient:
return _llm_client
def get_storage_client() -> StorageClient:
return _storage_client
```
```python
# main.pylifespan 初始化)
from contextlib import asynccontextmanager
from fastapi import FastAPI
from app.core.config import get_config
from app.core.dependencies import set_clients
from app.clients.llm.zhipuai_client import ZhipuAIClient
from app.clients.storage.rustfs_client import RustFSClient
@asynccontextmanager
async def lifespan(app: FastAPI):
cfg = get_config()
set_clients(
llm=ZhipuAIClient(api_key=cfg["zhipuai"]["api_key"]),
storage=RustFSClient(
endpoint=cfg["storage"]["endpoint"],
access_key=cfg["storage"]["access_key"],
secret_key=cfg["storage"]["secret_key"],
),
)
yield
app = FastAPI(title="Label AI Service", lifespan=lifespan)
```
---
## 五、API 接口设计
统一前缀:`/api/v1`。FastAPI 自动生成 Swagger 文档(`/docs`)。
### 5.0 健康检查
**`GET /health`**
```json
// 响应200 OK
{"status": "ok"}
```
用于 Docker healthcheck、Nginx 上游探测、运维监控。无需认证,不访问外部依赖。
### 5.1 文本三元组提取
**`POST /api/v1/text/extract`**
```json
// 请求
{
"file_path": "text/202404/123.txt",
"file_name": "设备规范.txt",
"model": "glm-4-flash",
"prompt_template": "..." // 可选,不传使用 config 默认
}
// 响应
{
"items": [
{
"subject": "变压器",
"predicate": "额定电压",
"object": "110kV",
"source_snippet": "该变压器额定电压为110kV...",
"source_offset": {"start": 120, "end": 280}
}
]
}
```
### 5.2 图像四元组提取
**`POST /api/v1/image/extract`**
```json
// 请求
{
"file_path": "image/202404/456.jpg",
"task_id": 789,
"model": "glm-4v-flash",
"prompt_template": "..."
}
// 响应
{
"items": [
{
"subject": "电缆接头",
"predicate": "位于",
"object": "配电箱左侧",
"qualifier": "2024年检修现场",
"bbox": {"x": 10, "y": 20, "w": 100, "h": 80},
"cropped_image_path": "crops/789/0.jpg"
}
]
}
```
裁剪图由 AI 服务自动完成并上传 RustFS`cropped_image_path` 直接写入响应。
### 5.3 视频帧提取(异步)
**`POST /api/v1/video/extract-frames`**
```json
// 请求
{
"file_path": "video/202404/001.mp4",
"source_id": 10,
"job_id": 42,
"mode": "interval", // interval | keyframe
"frame_interval": 30 // interval 模式专用,单位:帧数
}
// 立即响应202 Accepted
{
"message": "任务已接受,后台处理中",
"job_id": 42
}
```
后台完成后AI 服务调用 Java 后端回调接口:
```json
POST {BACKEND_CALLBACK_URL}
{
"job_id": 42,
"status": "SUCCESS",
"frames": [
{"frame_index": 0, "time_sec": 0.0, "frame_path": "frames/10/0.jpg"},
{"frame_index": 30, "time_sec": 1.0, "frame_path": "frames/10/1.jpg"}
],
"error_message": null
}
```
### 5.4 视频转文本(异步)
**`POST /api/v1/video/to-text`**
```json
// 请求
{
"file_path": "video/202404/001.mp4",
"source_id": 10,
"job_id": 43,
"start_sec": 0,
"end_sec": 120,
"model": "glm-4v-flash",
"prompt_template": "..."
}
// 立即响应202 Accepted
{
"message": "任务已接受,后台处理中",
"job_id": 43
}
```
后台完成后回调:
```json
POST {BACKEND_CALLBACK_URL}
{
"job_id": 43,
"status": "SUCCESS",
"output_path": "video-text/10/1712800000.txt",
"error_message": null
}
```
### 5.5 文本问答对生成
**`POST /api/v1/qa/gen-text`**
```json
// 请求
{
"items": [
{
"subject": "变压器",
"predicate": "额定电压",
"object": "110kV",
"source_snippet": "该变压器额定电压为110kV..."
}
],
"model": "glm-4-flash",
"prompt_template": "..."
}
// 响应
{
"pairs": [
{
"question": "变压器的额定电压是多少?",
"answer": "该变压器额定电压为110kV。"
}
]
}
```
### 5.6 图像问答对生成
**`POST /api/v1/qa/gen-image`**
```json
// 请求
{
"items": [
{
"subject": "电缆接头",
"predicate": "位于",
"object": "配电箱左侧",
"qualifier": "2024年检修现场",
"cropped_image_path": "crops/789/0.jpg"
}
],
"model": "glm-4v-flash",
"prompt_template": "..."
}
// 响应
{
"pairs": [
{
"question": "图中电缆接头位于何处?",
"answer": "图中电缆接头位于配电箱左侧。",
"image_path": "crops/789/0.jpg"
}
]
}
```
图像 QA 生成时AI 服务通过 `storage.download_bytes` 重新下载裁剪图base64 编码后直接嵌入多模态消息,避免 RustFS 内网 presigned URL 无法被云端 GLM-4V 访问的问题。
### 5.7 提交微调任务
**`POST /api/v1/finetune/start`**
```json
// 请求
{
"jsonl_url": "https://rustfs.example.com/finetune-export/export/xxx.jsonl",
"base_model": "glm-4-flash",
"hyperparams": {
"learning_rate": 1e-4,
"epochs": 3
}
}
// 响应
{
"job_id": "glm-ft-xxxxxx"
}
```
### 5.8 查询微调状态
**`GET /api/v1/finetune/status/{jobId}`**
```json
// 响应
{
"job_id": "glm-ft-xxxxxx",
"status": "RUNNING", // RUNNING | SUCCESS | FAILED
"progress": 45,
"error_message": null
}
```
---
## 六、Service 层设计
### 6.1 text_service — 文档解析 + 三元组提取
```
1. storage.download_bytes("source-data", file_path) → bytes
2. 按扩展名路由解析器:
.txt → decode("utf-8")
.pdf → pdfplumber.open() 提取全文
.docx → python-docx 遍历段落
3. 拼装 Prompt系统模板 + 文档正文)
4. llm.chat(messages, model) → JSON 字符串
5. 解析 JSON → 校验字段完整性 → 返回 TripleList
```
解析器注册表(消除 if-else
```python
PARSERS: dict[str, Callable[[bytes], str]] = {
".txt": parse_txt,
".pdf": parse_pdf,
".docx": parse_docx,
}
def extract_text(data: bytes, filename: str) -> str:
ext = Path(filename).suffix.lower()
if ext not in PARSERS:
raise UnsupportedFileTypeError(ext)
return PARSERS[ext](data)
```
### 6.2 image_service — 四元组提取 + bbox 裁剪
```
1. storage.download_bytes("source-data", file_path) → bytes
2. 图片 bytes 转 base64构造 GLM-4V image_url 消息
3. llm.chat_vision(messages, model) → JSON 字符串
4. 解析四元组(含 bbox
5. 按 bbox 裁剪:
numpy 解码 bytes → cv2 裁剪区域 → cv2.imencode(".jpg") → bytes
6. storage.upload_bytes("source-data", f"crops/{task_id}/{i}.jpg", ...)
7. 返回 QuadrupleList含 cropped_image_path
```
### 6.3 video_service — OpenCV 抽帧 + 视频转文本
**抽帧BackgroundTask**
```
0. storage.get_object_size(bucket, file_path) → 字节数
超过 video.max_file_size_mb 限制 → 回调 FAILED路由层提前校验返回 400
1. storage.download_bytes → bytes → 写入 tempfile
2. cv2.VideoCapture 打开临时文件
3. interval 模式:按 frame_interval 步进读帧
keyframe 模式:逐帧计算与前帧的像素差均值,差值超过阈值则判定为场景切换关键帧
OpenCV 无原生 I 帧检测,用帧差分近似实现)
4. 每帧 cv2.imencode(".jpg") → upload_bytes("source-data", f"frames/{source_id}/{i}.jpg")
5. 清理临时文件
6. httpx.post(BACKEND_CALLBACK_URL, json={job_id, status="SUCCESS", frames=[...]})
异常:回调 status="FAILED", error_message=str(e)
```
**视频转文本BackgroundTask**
```
1. download_bytes → tempfile
2. cv2.VideoCapture 在 start_secend_sec 区间均匀抽 frame_sample_count 帧
3. 每帧转 base64构造多图 GLM-4V 消息(含时序说明)
4. llm.chat_vision → 文字描述
5. 描述文本 upload_bytes("source-data", f"video-text/{source_id}/{timestamp}.txt")
6. 回调 Java 后端output_path + status="SUCCESS"
```
### 6.4 qa_service — 问答对生成
```
文本 QA
批量拼入三元组 + source_snippet 到 Prompt
llm.chat(messages, model) → 解析问答对 JSON → QAPairList
图像 QA
遍历四元组列表
storage.download_bytes(bucket, cropped_image_path) → bytes → base64 编码
构造多模态消息data:image/jpeg;base64,... + 问题指令)
llm.chat_vision → 解析 → 含 image_path 的 QAPairList
(注:不使用 presigned URL因 RustFS 为内网部署,云端 GLM-4V 无法访问内网地址)
```
### 6.5 finetune_service — GLM 微调对接
微调 API 属 ZhipuAI 专有能力,无需抽象为通用接口。`finetune_service` 直接依赖 `ZhipuAIClient`(通过依赖注入获取后强转类型),不走 `LLMClient` ABC。
```
提交:
zhipuai_client._client.fine_tuning.jobs.create(
training_file=jsonl_url,
model=base_model,
hyperparameters=hyperparams
) → job_id
查询:
zhipuai_client._client.fine_tuning.jobs.retrieve(job_id)
→ 映射 status 枚举 RUNNING / SUCCESS / FAILED
```
---
## 七、日志设计
- 使用标准库 `logging`JSON 格式输出,与 uvicorn 集成
- 每个请求记录:`method / path / status_code / duration_ms`
- 每次 GLM 调用记录:`model / prompt_tokens / completion_tokens / duration_ms`
- BackgroundTask 记录:`job_id / stage / status / error`
- **不记录文件内容原文**(防止敏感数据泄露)
---
## 八、异常处理
| 异常类 | HTTP 状态码 | 场景 |
|--------|------------|------|
| `UnsupportedFileTypeError` | 400 | 文件格式不支持 |
| `StorageDownloadError` | 502 | RustFS 不可达或文件不存在 |
| `LLMResponseParseError` | 502 | GLM 返回非合法 JSON |
| `LLMCallError` | 503 | GLM API 限流 / 超时 |
| 未捕获异常 | 500 | 记录完整 traceback |
所有错误响应统一格式:
```json
{"code": "ERROR_CODE", "message": "具体描述"}
```
---
## 九、RustFS 存储路径规范
| 资源类型 | 存储桶 | 路径格式 |
|----------|--------|----------|
| 上传文本文件 | `source-data` | `text/{年月}/{source_id}.txt` |
| 上传图片 | `source-data` | `image/{年月}/{source_id}.jpg` |
| 上传视频 | `source-data` | `video/{年月}/{source_id}.mp4` |
| 视频帧模式抽取的帧图 | `source-data` | `frames/{source_id}/{frame_index}.jpg` |
| 视频片段转译输出的文本 | `source-data` | `video-text/{source_id}/{timestamp}.txt` |
| 图像/帧 bbox 裁剪图 | `source-data` | `crops/{task_id}/{item_index}.jpg` |
| 导出 JSONL 文件 | `finetune-export` | `export/{batchUuid}.jsonl` |
---
## 十、部署设计
### 10.1 Dockerfile
```dockerfile
FROM python:3.12-slim
WORKDIR /app
# OpenCV 系统依赖
RUN apt-get update && apt-get install -y \
libgl1 libglib2.0-0 \
&& rm -rf /var/lib/apt/lists/*
COPY requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt
COPY app/ ./app/
COPY config.yaml .
COPY .env .
EXPOSE 8000
CMD ["uvicorn", "app.main:app", "--host", "0.0.0.0", "--port", "8000"]
```
### 10.2 docker-compose.ymlai-service 片段)
```yaml
ai-service:
build: ./label_ai_service
ports:
- "8000:8000"
env_file:
- ./label_ai_service/.env
depends_on:
- rustfs
- backend
networks:
- label-net
healthcheck:
test: ["CMD", "curl", "-f", "http://localhost:8000/health"]
interval: 30s
timeout: 5s
retries: 3
start_period: 10s
```
### 10.3 requirements.txt
```
fastapi>=0.111
uvicorn[standard]>=0.29
pydantic>=2.7
python-dotenv>=1.0
pyyaml>=6.0
zhipuai>=2.1
boto3>=1.34
pdfplumber>=0.11
python-docx>=1.1
opencv-python-headless>=4.9
numpy>=1.26
httpx>=0.27
```
---
## 十一、关键设计决策
### 11.1 为何 LLMClient / StorageClient 使用 ABC
当前只实现 ZhipuAI 和 RustFS但模型选型和对象存储可能随项目演进变化。ABC 约束接口契约,保证替换实现时 services 层零修改。注入点集中在 `lifespan`,一处修改全局生效。
### 11.2 为何 ZhipuAI 同步 SDK 在线程池中调用
ZhipuAI 官方 SDK 是同步阻塞调用,直接 `await` 不生效。通过 `loop.run_in_executor(None, ...)` 在线程池中运行,不阻塞 FastAPI 的 asyncio 事件循环,保持并发处理能力。
### 11.3 为何视频任务使用 BackgroundTasks 而非 Celery
项目规模适中,视频处理任务由 ADMIN 手动触发并发量可控。FastAPI `BackgroundTasks` 无需额外中间件Redis 队列、Celery Worker部署简单任务状态通过回调接口传递给 Java 后端管理,符合整体架构风格。
### 11.4 为何图像 QA 生成用 base64 而非 presigned URL
RustFS 部署在 Docker 内网(`http://rustfs:9000`presigned URL 指向内网地址,云端 GLM-4V API 无法访问,会导致所有图像 QA 请求失败。因此将裁剪图重新下载为 bytesbase64 编码后直接嵌入多模态消息体,与 `image_service` 处理原图的方式保持一致,无需 RustFS 有公网地址。
### 11.5 config.yaml + .env 分层配置的原因
`config.yaml` 存结构化、稳定的非敏感配置,可读性好,适合 git 追踪变更历史;`.env` 存密钥和环境差异项格式简单Docker `env_file` 原生支持,本地开发和容器启动行为一致,无需维护两套配置文件。
---
*文档版本v1.0 | 生成日期2026-04-10*