这三个词本质上是在大模型应用工程化不同层级的“控制手段”,可以理解为从“写一句提示词”→“组织上下文”→“搭建完整执行系统”的递进关系。
1. Prompt Engineering(提示词工程)
核心:怎么对模型说话
指通过设计输入提示词(prompt),让模型输出更符合预期。
关注点
- 任务描述怎么写更清晰
- few-shot 示例怎么设计
- 角色设定(system prompt)
- 输出格式约束(JSON / Markdown)
- 提示词模板优化
本质
控制“单次输入 → 单次输出”
举例
你是一个中文摘要助手,请将以下内容总结为100字以内:
...
局限
- 只作用于单轮或局部输入
- 对长任务、多步骤推理控制弱
- 不管理外部数据/工具
2. Context Engineering(上下文工程)
核心:给模型“喂什么信息”
强调的不只是 prompt,而是整个输入上下文的构建与组织。
关注点
- 如何拼接 system / user / memory / history
- RAG(检索增强)如何插入知识
- 长上下文裁剪(context pruning)
- 信息排序(重要信息放前)
- token budget 管理
- 多轮对话状态管理
本质
控制“模型看到什么世界”
举例
一个完整 context 可能包含:
- system:角色定义
- memory:用户偏好
- retrieved docs:外部知识
- conversation history:对话记录
- user query:当前问题
特点
- 比 prompt engineering 更“系统化”
- 是 agent / RAG 系统的核心基础
3. Harness Engineering(编排/框架工程)
核心:如何让模型在系统中“跑起来并可控”
harness = “马具/控制系统”,在 AI 里指模型执行框架与运行控制层。
关注点
- 多步 agent workflow 编排(plan → act → observe)
- tool calling / function calling
- 多模型协作(planner / executor / critic)
- retry / fallback / guardrails
- evaluation & logging
- 并发执行与调度
- 安全控制与权限管理
本质
控制“模型如何被系统调用与执行任务”
举例系统
- AutoGPT / LangGraph / Semantic Kernel
- 企业级 AI workflow engine
- agent pipeline(检索→推理→执行→校验)
三者关系(非常关键)
可以用一个层级图理解:
Harness Engineering(系统层)
↓ 管理执行流程
Context Engineering(信息层)
↓ 构建输入世界
Prompt Engineering(表达层)
↓ 控制单次输出
Model
一个直觉类比
层级 类比 含义 Prompt Engineering 你怎么说一句话 表达方式 Context Engineering 你给对方看哪些资料 信息供给 Harness Engineering 你搭了一个工作系统 流程与执行机制一个真实例子(AI客服系统)
Prompt Engineering
“请礼貌回答用户问题”
Context Engineering
- 用户历史订单
- FAQ知识库检索结果
- 用户身份信息
- 当前对话上下文
Harness Engineering
- 判断是否需要调用退款API
- 调用订单系统
- fallback 到人工客服
- 记录日志 + 评估满意度
总结一句话
- Prompt Engineering:让模型“怎么说”
- Context Engineering:让模型“知道什么”
- Harness Engineering:让模型“怎么干活”
1 个帖子 - 1 位参与者