在大语言模型的应用中,SFT(监督微调)和纯Prompt(即仅通过设计提示词引导模型行为)是两种截然不同的能力激发方式,其核心差异在于是否修改模型参数以及能力的稳定性与泛化性。
纯Prompt依赖预训练模型本身已有的知识和模式匹配能力,通过精心构造输入(如添加“你是一个 helpful AI 助手”或提供 few-shot 示例)来引导输出。这种方式无需任何训练,部署灵活,适用于快速验证或轻量级任务。然而,其效果高度依赖提示词的设计技巧,且对复杂指令、多步推理或格式约束等场景鲁棒性差。同一个模型在不同措辞下可能表现迥异,甚至忽略关键要求。本质上,纯Prompt是在“试探”模型的已有行为边界,而非扩展它。
SFT则通过有监督训练,直接调整模型参数,使其内化对指令的理解和响应模式。使用人工标注的“指令-理想回答”对进行微调后,模型不再需要复杂的提示即可稳定遵循任务要求。例如,经过 SFT 的模型在收到“总结以下内容”时,会自动输出简洁摘要,而无需额外说明“请用三句话以内作答”。这种能力是固化在模型内部的,对输入措辞不敏感,泛化性更强,且能处理更复杂的结构化输出(如 JSON、代码、多跳推理)。
从能力来源看,纯Prompt完全依赖预训练阶段学到的隐式模式,而 SFT 显式教会模型“如何与人类交互”。前者像是给一个聪明但未经训练的人不断下口头指令,后者则是对其进行系统培训。因此,SFT 模型在实际应用中更可靠、更一致,尤其在产品化场景中,避免了 prompt engineering 的高维护成本和不确定性。
此外,SFT 还为后续的对齐优化(如 RLHF 或 DPO)奠定基础。纯Prompt 无法与强化学习结合,因为其行为不可通过梯度更新;而 SFT 提供了一个可优化的初始策略,使得偏好信号能有效引导模型进化。
纯Prompt 是一种“外部引导”策略,适合探索和轻量使用;SFT 是一种“内部塑造”手段,用于构建稳定、可控、产品级的智能体。两者并非互斥,但在工程实践中,SFT 已成为构建可用大模型的标准步骤,而纯Prompt 更多作为辅助技巧或在资源受限时的临时方案。