跳到主要内容

提示工程概述

提示工程(Prompt Engineering)是通过设计和优化输入给大型语言模型(LLM)的文本,来最大化模型输出质量的系统性方法。随着 LLM 能力的爆发式增长,提示工程已经成为每一个 AI 应用开发者必须掌握的核心技能。

什么是提示工程

从技术角度来说,提示(Prompt)是发送给 LLM 的所有文本输入的总称,包括:

  • 系统提示(System Prompt):设定模型的角色、行为规范、背景知识
  • 用户消息(User Message):用户的实际输入
  • 助手预填(Assistant Prefill):强制模型从特定词语开始回复

提示工程则是通过研究、实验和迭代,找到能让模型最好地完成特定任务的提示形式和内容。

为什么重要:LLM 能力上限由 Prompt 决定

一个关键洞察是:同一个模型,面对不同质量的 Prompt,输出结果可能天差地别。这不是夸张——有大量研究和实践案例表明:

  • 优秀的 Prompt 可以让 GPT-3.5 在某些任务上超过使用劣质 Prompt 的 GPT-4
  • 糟糕的 Prompt 会让模型"误解"任务意图,产生表面流畅但实质错误的输出
  • 思维链(CoT)Prompt 能让模型的数学推理能力大幅提升,甚至某些逻辑题从 10% 正确率提升至 90%+

这意味着:提示工程是解锁 LLM 真实能力的钥匙。一个不擅长提示工程的团队,无论使用多先进的模型,都无法发挥其真正潜力。

Prompt vs 微调的权衡

在实际应用中,面对特定任务,通常需要在"更好的 Prompt"和"微调模型"之间做选择:

对比维度提示工程微调(Fine-tuning)
成本低(只需工程师时间)高(GPU 训练 + 标注数据)
速度快(小时级别迭代)慢(天至周级别)
灵活性高(随时修改)低(修改需重新训练)
效果上限受限于模型基础能力可以超越基础 Prompt 效果
适用场景任务多样、快速迭代高频固定任务、格式强约束
隐私数据不离开需要上传训练数据

经验法则:先用提示工程解决问题,当 Prompt 优化到极限但效果仍不够时,再考虑微调。

提示工程师职业

随着 LLM 的广泛应用,"提示工程师(Prompt Engineer)"已经成为一个真实的职位,薪酬有时令人惊讶地高(尤其在 2023 年初期)。但更准确的理解是:

  • 提示工程不是独立职业,而是 AI 产品经理、AI 开发工程师、内容运营等角色的必备技能
  • 优秀的提示工程师需要同时理解业务需求、模型能力和工程实现
  • 随着 AI 能力提升,简单的 Prompt 任务可能被 AI 自身(元提示、DSPy 等)自动化

本章内容导读

本章系统介绍提示工程的核心技术和最佳实践:

基础概念

核心技术

综合实践

  • 最佳实践:常见错误、测试方法、成本控制、企业级管理

快速入门

如果你只有 10 分钟,以下是最重要的三条原则:

  1. 具体性:避免模糊,告诉模型具体要做什么、输出什么格式、面向什么受众
  2. 思维链:对于推理类任务,在 Prompt 末尾加上"请一步步思考"
  3. 迭代:没有完美的第一版 Prompt,通过测试和修改持续优化