前言

Github:https://github.com/HealerJean

博客:http://blog.healerjean.com

一、prompt 工程为何成为必修课

1、AI 不会读心,Prompt 是“意图翻译器”

大模型(如GPT、Claude、Gemini)虽然强大,但无法自动理解你模糊的想法。

  • 模糊指令:“帮我写点东西。” → 输出泛泛、低效、需反复修改。
  • 精准 Prompt:“你是一位资深科技博主,用通俗语言向小白用户解释 RAG 架构,300 字以内,带一个生活类比。” → 输出即用、精准、有风格。

Prompt工程 = 把你的脑内意图,翻译成AI能执行的结构化指令。

2、效率差距正在拉大:会写 Prompt 的人 vs 不会的人

  • 有人用AI 3分钟生成周报、策划案、代码、招聘 JD
  • 有人折腾半小时仍得不到满意结果,甚至认为“AI没用”。

这种差距不是工具问题,而是Prompt能力差异。正如2025年CSDN文章所言:

“未来,不会写Prompt的人,就像今天不会用Excel的人。”

3、Prompt 工程 ≠ 随便提问,而是一套系统方法论

它融合了:

  • 角色设定(你是谁?AI扮演谁?)
  • 任务定义(要做什么?输出格式?)
  • 上下文约束(语气、长度、禁忌词、目标人群)
  • 思维引导技术(如 Chain-of-ThoughtFew-Shot 示例、ReAct 框架)

这已超越“技巧”,成为人机协同的底层工作流设计能力

4、各岗位都在重构工作方式

岗位 Prompt工程价值
市场/运营 快速生成千人千面文案、A/B测试素材
产品/研发 自动生成需求文档、测试用例、API注释
HR 定制化 JD、面试问题、员工沟通话术
数据分析 自动解读数据趋势、生成可视化建议
管理者 汇总信息、起草战略简报、模拟决策推演

企业开始建立“Prompt模板库”,将最佳实践制度化。

5、AI 进化越快,Prompt 越重要

随着模型能力增强(如多模态、长上下文、RAG 集成),Prompt 的复杂度和影响力同步提升

  • 简单问答 → 复杂任务编排(“先分析数据,再生成报告,最后提出3条行动建议”)
  • 单次交互 → 多轮推理+外部知识调用(结合RAG)

谁能设计出高质量 Prompt ,谁就掌握了 AI 时代的“指挥权”

6、结语:这不是选修,而是生存技能

正如MIT专家所言:

“你不需要懂编程,但必须掌握用语言‘编程’的能力。”

在2026年,Prompt工程已成为连接人类意图与AI生产力的核心桥梁——无论你是职场人、创业者还是学生,掌握它,就是掌握未来十年的效率杠杆。

二、ChatGPT 的局限性和响应机制

1、ChatGPT 的核心响应机制

1)基于概率的文本生成

  • ChatGPT 并非“思考”或“理解”,而是通过统计学习预测下一个最可能的词(token)。

  • 它的回答是对海量训练数据中语言模式的模仿,而非基于真实世界知识或逻辑推理。

  • 举例:问:“地球是平的吗?”

  • → 模型不会“知道”地球是圆的,但它在训练数据中看到“地球是圆的”这句话出现频率远高于“地球是平的”
  • 因此更可能输出科学答案。

2)上下文窗口驱动

  • 模型仅根据当前对话的有限上下文(如 128K tokens)生成回复。
  • 超出窗口的历史会被遗忘,无法形成“长期记忆”。

3)无自主意识或意图

  • 所有回答都是被动响应,没有目标、情感或自我意识。
  • “它想帮你”只是拟人化错觉——本质是算法对输入的映射。

2、ChatGPT 的关键局限性

局限类型 具体表现 风险示例
1. 知识截止性 训练数据有时间上限(如 GPT-4 截至 2023 年10月) 无法回答 2025 年诺贝尔奖得主是谁
2. 幻觉(Hallucination 编造看似合理但错误的事实、引用、数据 虚构论文标题、假法律条文、错误历史日期
3. 缺乏真实推理能力 无法进行严谨逻辑推导或数学证明 复杂数学题可能步骤正确但结果错误
4. 上下文依赖脆弱 微小提示词变化可能导致答案剧烈波动 同一问题换种问法,答案矛盾
5. 无法访问外部信息 不联网、不查数据库、不读文件(默认) 无法获取实时股价、天气、内部文档
6. 偏见与敏感内容风险 可能复现训练数据中的偏见、刻板印象 对性别、种族、地域等问题输出不当内容
7. 一致性差 多轮对话中可能自相矛盾 前面说“支持A”,后面又说“反对A”

3、为什么 ChatGPT 会“一本正经地胡说八道”?

心理学类比:类似“达克效应”——能力不足者高估自己,而 ChatGPT 没有“元认知”来判断自己是否在瞎编。

这是其机制决定的:

  • 模型被训练为生成流畅、连贯、符合人类偏好的文本,而非“确保事实正确”。
  • RLHF(人类反馈强化学习)阶段,它学会了“说得像专家”,但没学会“只说确定的事”
  • 当知识模糊时,它倾向于猜测并自信输出,而非承认“我不知道”。

4、如何应对这些局限?——实用策略

1)永远验证关键信息

  • 尤其涉及:医疗、法律、金融、学术引用、技术参数等。
  • ChatGPT 当作“初稿助手”,而非“权威来源”。

2)用 Prompt 引导诚实性

  • 如果不确定,请明确回答“我不确定”或“这超出了我的知识范围”。
  • 请仅基于可靠事实回答,避免推测。如信息不足,请说明。

3)结合 RAG 或工具调用

  • 通过插件、API 或 RAG 架构,让模型先查资料再回答,大幅减少幻觉。

4)交叉验证

  • 用不同措辞问同一问题,看答案是否一致。
  • 用多个模型(如 Claude、Gemini、Qwen)对比输出。

5)警惕“过度流畅”的陷阱

  • 越是结构清晰、语言优雅的回答,越容易让人误以为“一定正确”——这正是幻觉最危险的地方。

三、构建你的第一条prompt

1、建议使用 CRISPE 框架(业界常用 Prompt 设计模板)

字母 含义 作用
C Capacity / Role(角色) 告诉 AI 它是谁
R Responsibility(职责) 明确任务目标
I Insight / Context(背景) 提供必要上下文
S Statement / Steps(指令/步骤) 具体操作要求
P Personality / Tone(语气/风格) 控制输出风格
E Exclusion / Examples(排除项/示例) 避免错误 + 给范例
“你是一位______,请帮我______。背景是______。要求:1... 2... 3...。语气要______。不要______。”
记住:好 Prompt = 清晰意图 + 结构约束 + 风格引导

2、填空式构建你的 Prompt

角色:你是一位资深新能源汽车行业分析师,专注于中国市场。(C)

目标:请为公司高管撰写一份关于2025年新能源汽车市场趋势的简报,帮助制定下半年产品策略。(R)

背景:2024年中国市场新能源车渗透率已超40%,政策补贴退坡,但充电基础设施加速建设。竞争焦点转向智能化与出海。(I)

要求:
1. 聚焦三大趋势:技术(如800V快充、固态电池)、消费行为(如家庭用户偏好)、国际布局(如东南亚/欧洲出口);
2. 每点用1-2句话说明,并附一个关键数据或事件支撑(如“据乘联会数据…”);
3. 总字数控制在300字以内;
4. 以 bullet points 形式呈现。(S)

风格:语气专业、简洁、有前瞻性,避免营销话术。(P)

排除项/示例:不要预测具体股价或推荐个股;不要使用“革命性”“颠覆”等夸张词汇。(E)

3、AI 的典型输出

2025年中国新能源汽车市场趋势简报

  • 技术迭代:800V高压平台与超快充技术快速普及,半固态电池逐步落地,补能效率与续航能力持续提升。据行业数据,2025年800V平台车型市占率已突破35%,5C超快充技术可实现10分钟补充400公里续航。
  • 消费行为:家庭用户成核心消费群体,空间灵活性、安全冗余及能耗经济性为核心诉求。2025年新能源乘用车零售渗透率达54%,三排座新能源车型销量增速显著高于市场均值。
  • 国际布局:出海进入本地化深耕阶段,新能源车出口占比持续攀升。据乘联会数据,2025年12月新能源车出口占乘用车出口总量的46.4%,CKD出口及海外建厂成为头部企业布局重点。

4、为什么这条 Prompt 成功?

  • 角色明确 → AI 知道该用什么知识库
  • 边界清晰 → 限定范围、格式、长度
  • 防幻觉设计 → 要求“数据/事件支撑”
  • 风格可控 → 避免浮夸,符合高管阅读习惯

四、如何高效地“拆解问题”?

1、一、为什么“拆解问题”如此重要?

大语言模型(如ChatGPT)擅长处理结构清晰、边界明确的任务,但面对模糊、复杂的提问时,容易:

  • 回答不完整或泛泛而谈
  • 陷入逻辑混乱
  • 忽略关键细节

拆解问题 = 把“大海捞针”变成“按图索骥”

2、问题拆解的三大原则

1)从“整体”到“局部

将一个宏观目标分解为多个可执行的小任务。

模糊提问:“帮我做个年度工作总结。”

拆解后:

  1. 列出本年度完成的主要项目
  2. 分析每个项目的成果与挑战
  3. 提炼个人成长与技能提升
  4. 规划明年3个重点方向
  5. 用正式语气写成报告,不超过800字

2)从“结果”到“过程”

不要只说“我要什么”,而是说明“怎么得到”。

简单指令:“写一篇关于AI对教育的影响的文章。”

拆解流程:

  1. 先列出AI在教育中的3个应用场景(如智能批改、个性化学习、虚拟教师)
  2. 分别分析每个场景的利弊
  3. 引用1-2个真实案例(如某学校试点效果)
  4. 总结未来趋势
  5. 写成一篇800字议论文,标题自拟

3)从“模糊”到“具体”

用“5W2H”法追问自己:

  • What(做什么?)
  • Why(为什么?)
  • Who(谁参与?)
  • When(何时?)
  • Where(哪里?)
  • How(怎么做?)
  • How much(多少?)

例如:“我想提高英语口语” → 拆解为:

  • 目标:流利表达日常对话
  • 时间:每天15分钟
  • 方法:跟读+影子跟读+录音反馈
  • 工具:使用AI语音评测功能
  • 输出:每周生成一份进步报告

3、AI 提示词模板:快速拆解问题

请帮我将以下问题拆解成5个子问题,以便我逐步解决:
【你的原始问题】

要求:
1. 每个子问题必须独立且可操作;
2. 使用“如何…”、“需要…”、“是否…”等句式;
3. 优先考虑信息收集、分析、决策三个阶段。

示例输入:“我想做一个自媒体账号赚钱。”

输出可能包括:

  1. 如何确定适合我的内容领域?
  2. 需要哪些工具来制作短视频?
  3. 如何找到第一批粉丝并互动?
  4. 是否可以通过广告或带货变现?
  5. 如何评估账号增长是否健康?

4、总结:拆解是“高阶 Prompt ”的起点

不拆解 拆解后
AI 输出宽泛、低效 输出精准、可执行
用户反复修改 一次到位
浪费时间和算力 提升效率与质量

五、苏格拉底问答法与 AI-Prompt 工程

1、苏格拉底问答法

1)什么是苏格拉底问答法

  • 核心定义:一种通过连续、递进的提问来引导思考、揭示假设并激发深度认知的对话方法,而非直接给出答案。
  • 核心三阶段
    • 讽刺(质疑):通过提问暴露对方观点的矛盾或无知,打破思维定式。
    • 定义(澄清):在反复诘难中归纳,形成明确的概念和定义。
    • 助产术(引导):像“思想助产士”一样,引导对方自己“产出”知识和结论

2)典型示例

  • 场景:探讨“什么是勇敢?”
  • 传统回答:“勇敢就是不害怕,敢于冲锋。”
  • 苏格拉底式追问
    • 挑战定义:“士兵在错误的时机冲锋导致全军覆没,这是勇敢吗?”
    • 区分概念:“如果勇敢只是不害怕,那无知者无畏算不算勇敢?”
    • 引导重构:“是否可以说,勇敢是‘在明知危险时,基于正确判断的坚持’?”

2、AI 场景下的应用逻辑

  • 核心转变:从“知识灌输者”转变为“认知引导者”,让 AI 成为你的“思维教练”。
  • 底层逻辑:通过提问控制 AI 的输出路径,利用 AI 的推理能力层层拆解复杂问题,而非依赖其一次性给出最终答案。
  • 关键优势
    • 深度思考:迫使 AI 展示推理过程,避免“黑箱”输出。
    • 精准定制:通过多轮交互,让 AI 更贴合你的具体需求和思维逻辑。

3、具体应用策略与范例

1)策略一:概念澄清与重构

  • 目标:模糊、宽泛的概念具体化,明确其边界和核心要素,避免因定义不清导致的无效讨论。
  • 场景:用户想理解“数字化转型”这一概念,但直接定义往往过于抽象,难以真正理解其在实际业务中的含义。
  • 苏格拉底式 Prompt: “我想深入理解‘数字化转型’。请不要直接给出定义,而是通过提问引导我思考。例如,先问我传统业务与数字技术的结合点,再引导我思考这种结合带来的根本变化。”

2)策略二:逻辑漏洞检测

  • 目标:揭示支撑观点的潜在假设,检验其逻辑严谨性,发现推理链条中的断裂或矛盾。

    场景:用户有一个商业计划,认为“通过低价策略一定能抢占市场”,但这个想法可能过于简单化。

    苏格拉底式 Prompt: “我有一个商业计划:通过低价策略抢占市场。请扮演苏格拉底,通过提问来检验我的假设。例如,追问‘低价是否必然导致市场份额增加?’、‘是否有反例证明低价策略失败?’。”

3)策略三:复杂问题拆解

  • 目标:将庞大、复杂的难题分解为可管理、可操作的子问题,降低认知负荷,找到切入点。

    场景:用户想探讨“如何解决气候变化”这个宏大且复杂的问题,直接回答无从下手。

    苏格拉底式 Prompt: “我们来探讨如何解决气候变化。请将这个问题拆解为几个子问题,每次只问我一个,引导我逐步思考解决方案,而不是直接给我一个宏大的答案。”

六、Prompt 设计常见误区

1、缺乏具体性:模糊指令 → 输出“泛而不精”

  • 定义:给出模糊、不确定的指令,让AI无法精准理解需求。
  • 反面案例
    • Prompt:“写一篇关于旅行的文章。”
    • 输出:可能是一篇泛泛而谈的“旅行意义+通用攻略”,对“想了解某地小众玩法”“需要亲子旅行清单”的读者毫无针对性。
  • 解决方法:明确目标、受众、结构、细节
    • 例如::“为「25-35岁职场新人」写一篇「1000字左右」的「云南小众旅行攻略」,要求:
      • ① 聚焦「雨季避雷+小众景点」;
      • ② 分3部分(出行准备、路线推荐、避坑指南);
      • ③ 语言轻松,带个人体验感。”*

2、 忽视细节缺少约束 → 输出“答非所问”

  • 定义:缺少必要的细节约束(如格式、参数、范围),导致回答不完整或不准确。
  • 反面案例
    • Prompt:“分析手机市场的竞争格局。”
    • 输出:可能笼统讲“华为、苹果、小米竞争”,但若你实际想要“2024年折叠屏手机的市场份额对比”,这版输出就完全跑偏。
  • 解决方法:补充时间、地域、维度、格式等细节。例如:
    • 分析「2024年Q1中国折叠屏手机市场」的竞争格局,要求:
      • ① 用「表格」对比华为、三星、小米的市场份额;
      • ② 分析「价格战」和「技术差异」两个核心竞争点;
      • ③ 每点不超过150字。

3、缺乏上下文:无背景 → 输出“脱离场景”

  • 定义:缺少背景信息或历史对话,让AI难以理解任务的具体情境。
  • 反面案例(客服场景):用户:“我买的耳机一周内两次断连,怎么办?”
    • 客服 AI(无上下文):“您好,请提供订单号和问题描述。”(重复询问已说过的“断连”问题,体验极差)
  • 解决方法:在 Prompt植入历史信息+场景背景。例如:
    • 用户「张三」(订单号:123456)已反馈「耳机左右耳断连」「充电仓无法充电」两次问题,现在他再次投诉「断连未解决」,请回复:
      • ① 致歉并确认是否为同一耳机;
      • ② 提供「寄回检测+临时备用机」方案;
      • ③ 语气诚恳,带emoji。

4、期望过高误判能力边界 → 输出“不切实际”

  • 定义:对 ChatGPT 的能力边界认知不足,提出超出其能力范围的需求。
  • 反面案例Prompt:“实时查询今天上海的天气并推荐穿搭。”
    • 输出:AI会明确拒绝(或编造过时数据),因为它无法联网实时查询天气(训练数据截止2024年)。
  • 解决方法:明确 AI 的能力边界(如不实时、不专业医疗/法律、不主观创造),补充外部信息。例如:
    • 基于 2024 年及之前的公开资料,分析「2023年上海夏季天气特点」并推荐穿搭,同时说明:
      • ① 数据截止时间;
      • ② 结论的局限性(如未包含2025年新信息)。

5、忽略用户反馈不迭代→输出“持续跑偏”

  • 定义:未能根据用户反馈调整 Prompt,导致持续输出不符合需求的内容。
    • 很多用户觉得:“我问一次,AI 就应该给我完美的答案。” 但现实是,AI 不知道你的个人审美或特定行业的“黑话”。如果你只说“不行”,却不告诉它“怎么改”,它下一次还是会犯同样的错。
  • 场景:想让 AI 帮你写一个卖咖啡机的短视频脚本。
  • 反面案例
    • 第一轮对话
      • :“写一个咖啡机的推广文案。”
      • AI:“为您推荐这款高品质咖啡机,采用意式高压萃取技术,让您在家也能享受醇厚香浓的咖啡……”(这是标准的电视购物风格,很正经。)
    • 你的反馈(误区所在)
      • :“太无聊了,太官方了,一点都不吸引年轻人,重写!”
    • 结果
      • AI:“好的,为您重新撰写。这款咖啡机是年轻人的潮流之选,口感绝佳……”(虽然换了词,但风格还是“官方广告风”,因为你没告诉它“年轻人喜欢什么风格”。)
      • 结局:你很生气,觉得 AI 没用;AI 很委屈,因为它不知道“不无聊”具体是指什么。
  • 解决方法把“反馈”转化为“具体的修改指令”,不要只说“感觉上的词”(如:不够好、太土、要高级),要说“动作上的词”(如:加个表情、删掉第二段、用“绝绝子”这个词、改成讲故事)。
    • 第一轮对话(同上):
      • :“写一个咖啡机的推广文案。”
      • AI:“为您推荐这款高品质咖啡机……”(输出了无聊的官方版。)
    • 关键转折——精准反馈(这是核心!):
      • :“这个风格太像电视购物了。我需要的是适合抖音的风格。请做以下修改:
        • 语气:要像朋友聊天一样,很随意、很兴奋。
        • 加入梗:开头要用‘谁懂啊’这个流行语。
        • 结构:不要只夸机器,要先讲‘早上起不来’这个痛点,再引出咖啡机有多方便。”
    • 结果(AI顿悟)
      • AI:“谁懂啊!早八人真的起不来!每天早上能多睡一分钟是一分钟。还好我发现了这个懒人神器——XX咖啡机!闹钟一响,顺手按下它,洗漱的功夫咖啡都好了……”
      • 结局:这次输出完全符合“抖音短视频脚本”的要求。
  • 总结:不要只说“感觉上的词”(如:不够好、太土、要高级),要说“动作上的词”(如:加个表情、删掉第二段、用“绝绝子”这个词、改成讲故事)。
    • 低效反馈:“写得不行,太死板。”
    • 高效反馈:“请把第一段的‘尊敬的客户’改成‘亲爱的姐妹们’,并在第三点后面加一个emoji。”

七、八类Prompt的正确定位

类型 核心目标 关键词 模板示例
解释 让人懂 是什么、为什么、如何 “请解释XXX,用XX方式”
类比 借熟喻生 像、如同、好比 “用A类比B,说明对应关系”
评估 判断优劣 评价、比较、打分 “从X角度评估Y”
总结 提炼精华 概括、要点、核心 “用X字总结以下内容”
拓展 深化延伸 补充、展开、详细说明 “围绕原句拓展,加入…”
预测 推演未来 如果…会怎样、趋势 “预测未来X年…”
生成 无中生有 写、创作、生成 “生成一篇…主题为…”
编辑 优化表达 修改、润色、精简 “将以下文字改得更…”

1、解释

作用:让 AI 将复杂、抽象或陌生的概念转化为通俗易懂的语言,帮助用户建立基础认知。这是最基础也最常用的 Prompt 类型。

详细说明:

  • 适用于术语、原理、流程、现象等的说明
  • 可指定受众(如“给小学生讲”、“给非技术人员解释”)
  • 可要求用特定方式(如“分点说明”、“用生活例子”)

示例 1:

  • Prompt:请用初中生能听懂的方式解释“什么是区块链”?
  • AI 输出:区块链就像一个全班同学共同维护的记账本。每次有人借钱或还钱,大家都要在自己的本子上记一笔,并互相核对。因为每个人都有一份,所以没人能偷偷改账。这就是“去中心化”和“不可篡改”。

提示词模板(可直接复制使用):

  1. “请解释【XXX】是什么,要求语言通俗易懂。”
  2. “用【小学生/高中生/非专业人士】能理解的方式解释【概念】。”
  3. “请分点说明【XXX】的核心原理。”
  4. “【术语】是什么意思?请结合一个生活中的例子说明。”
  5. “为什么【现象】会发生?请从【XX角度】进行解释。”

2、类比

作用:通过已知事物映射未知事物,降低理解门槛,特别适合教学、科普和跨领域沟通。

详细说明:

  • 类比不是简单比喻,而是强调结构相似性(如功能、流程、关系)
  • 好的类比能揭示本质,而非仅停留在表面相似
  • 可指定类比对象(如“用厨房来类比操作系统”)

示例 1:

  • Prompt:请用“快递系统”来类比“互联网数据传输”。

  • AI 输出

    • 互联网数据传输就像寄快递:

    • 数据包 = 快递包裹

    • IP 地址 = 收件人地址

    • 路由器 = 中转站

      • TCP 协议 = 签收确认机制(确保包裹送达)

提示词模板:

  1. “请用【熟悉的事物】来类比【抽象概念】,并说明对应关系。”
  2. “如何向一个【完全不懂XX的人】用类比解释【XXX】?”
  3. “找出【A】和【B】之间的结构相似性,并用表格对比。”
  4. “用日常生活中的一个场景类比【技术流程】。”
  5. “请构建一个类比,帮助我理解【复杂系统】的工作原理。”

3、评估

作用:引导 AI 对方案、观点、作品、行为等进行价值判断,常用于决策支持、批判性思维训练。

详细说明:

  • 可要求多维度评估(如成本、效率、伦理、可持续性)
  • 可设定评估标准(如“从用户体验角度”)
  • 可比较多个选项(A vs B)

示例 1:

  • Prompt:请从可行性、成本和用户接受度三个维度,评估“全面推行人脸识别门禁”在小区的应用。

  • AI 输出

    • 可行性:高(技术成熟)

    • 成本:初期投入大,但长期维护成本低

    • 用户接受度:中等,部分居民担忧隐私泄露
    • 结论:建议搭配隐私保护声明+人工备用通道。

提示词模板:

  1. “请从【维度1、维度2、维度3】评估【XXX】。”
  2. “这个方案有哪些优点和潜在风险?请客观分析。”
  3. “比较 A 和 B 两种方法,哪种更适合【具体场景】?为什么?”
  4. “请打分(1–10)并说明理由:【待评估对象】。”
  5. “从【伦理/商业/技术】角度,如何看待【某现象】?”

4、总结

作用:提取信息精华,实现“降维阅读”,适用于长文本处理、会议记录、知识整理。

详细说明:

  • 可指定长度(如“100字以内”、“3句话”)
  • 可聚焦特定方面(如“只总结作者观点”)
  • 可要求保留关键数据或结论

示例 1:

  • Prompt:请用不超过 80 字总结以下新闻:[粘贴一篇关于新能源汽车补贴退坡的报道]
  • AI 输出:2026年起国家取消新能源汽车购置补贴,行业将转向市场化竞争,车企需提升产品力应对。

提示词模板:

  1. “请用【X字/ X句话】总结以下内容:【粘贴文本】。”
  2. “只保留关键事实,省略细节,总结这段话。”
  3. “提取本文的三个核心观点。”
  4. “为这篇报告写一个 executive summary(执行摘要)。”
  5. “总结作者的主要论点和支持证据。”

5、拓展

作用:在已有内容基础上深化、延伸、补充细节或视角,激发创造性思维。

详细说明:

  • 可要求增加背景、案例、数据、反方观点等
  • 常用于写作润色、头脑风暴、教学设计
  • 与“生成”不同:“拓展”有原始材料作为锚点

示例 1:

  • Prompt:请拓展这句话:“远程办公提高了工作效率。” 要求加入数据支持和潜在问题。
  • AI 输出:据斯坦福研究,远程办公可提升13% productivity,因通勤时间减少、干扰降低。但长期可能削弱团队凝聚力,且对需要协作的创意工作效果有限。

提示词模板:

  1. “请围绕【原句/段落】进行拓展,加入【具体要求,如案例、数据、反面观点】。”
  2. “将以下提纲扩展成一篇500字短文。”
  3. “从【经济/环境/社会】角度进一步阐述这个观点。”
  4. “为这个想法补充三个支持理由和一个潜在挑战。”
  5. “详细描述【简略描述】中提到的场景。”

6. 预测

作用:基于现有趋势、数据或逻辑,推断未来可能性,用于战略规划、风险预警等。

详细说明:

  • 预测需基于合理假设,避免纯幻想
  • 可要求概率性判断(如“可能性高/中/低”)
  • 可限定时间范围(如“未来5年”)

示例 1:

  • Prompt:如果AI编程工具普及,未来软件工程师的角色会发生什么变化?

  • AI 输出

    • 工程师将从写基础代码转向:

    • 需求定义与系统架构设计

    • AI 生成代码的审核与优化

    • 跨领域整合(如AI+生物)
    • 编码技能仍重要,但“提示工程”和“系统思维”更关键。

提示词模板:

  1. “基于当前趋势,预测【领域】在未来【X年】可能发生的变化。”
  2. “如果【条件A】发生,最可能的结果是什么?请推理。”
  3. “列出【某技术】未来三年的三大应用场景。”
  4. “从【历史数据/政策方向】出发,推测【某指标】的走向。”
  5. “哪些信号表明【某事件】即将发生?”

7、生成

作用:从零创造全新内容,是 AI 最具“生产力”的能力,涵盖文本、代码、创意等。

详细说明:

  • 需明确格式、风格、长度、受众
  • 可结合角色扮演(如“以记者身份写一篇报道”)
  • 生成质量高度依赖 Prompt 的具体性

示例 1:

  • Prompt:生成一封英文求职信,应聘 AI 产品经理岗位,突出我的 NLP 项目经验。
  • AI 输出:Dear Hiring Manager,With 3 years of experience leading NLP projects… [完整信件]

提示词模板:

  1. “生成一篇【字数】的【文体】,主题是【XXX】,风格【正式/幽默/诗意】。”
  2. “写一段 Python 代码,实现【功能描述】。”
  3. “创作一个关于【主题】的短视频脚本(30秒)。”
  4. “以【角色身份】的口吻,写一封【目的】的信。”
  5. “生成5个【产品名称/广告标语/标题】,要求【特点】。”

8、编辑

作用:优化已有文本,提升表达质量,是专业写作、学术、商务沟通的刚需。

详细说明:

  • 可指定修改方向:语法、简洁性、语气、专业性、情感色彩等
  • 可要求“保持原意”或“彻底重写”
  • 常与“生成”配合使用(先生成草稿,再编辑)

示例 1:

  • Prompt:润色这段学术论文引言,使其逻辑更严密,语言更学术化。[粘贴段落]
  • AI 会调整连接词、术语、句式结构)

提示词模板:

  1. “请润色以下文字,使其更【正式/简洁/生动/学术】。”
  2. “修正语法错误,并优化句子流畅度。”
  3. “将这段口语化表达改为商务邮件风格。”
  4. “缩短至原长度的50%,保留核心信息。”
  5. “调整语气,使其更具说服力/同理心/权威感。”

八、精细化调优 Prompt

1、阐述明确的目的

1)核心理念:

清晰地告诉模型“你想让它做什么”,避免模糊或泛泛而谈的提问。明确的目标能引导对话方向,减少歧义,提高回答的相关性和准确性。

2)为什么重要?

ChatGPT 是一个基于上下文生成内容的模型,它无法主动理解你的“潜台词”。如果目标不清晰,它可能给出宽泛、无关甚至错误的回答。

3)如何做?

  • 使用“我要……”、“请帮我……”、“我希望你……”等句式。
  • 明确输出格式、长度、用途等要求。
  • 区分“信息查询”、“创作生成”、“逻辑推理”等不同任务类型。

4)示例对比:

  • 模糊提问(效果差):“讲讲人工智能。”
    • → 可能得到一段泛泛而谈的介绍,缺乏针对性。
  • 明确目的(效果好):“请用通俗易懂的语言,写一段300字左右的科普文章,向高中生解释什么是人工智能,重点说明它的应用场景和潜在风险。”
    • → 输出更符合预期:结构清晰、语言适配、长度可控。

2、调整语气和风格

1)核心理念:

不同的语气和风格会影响模型的表达方式。你可以通过提示词控制输出是专业、幽默、简洁还是感性。

2)为什么重要?

同一问题用不同语气提问,会得到截然不同的回答。例如,写报告需要正式严谨,写广告文案则需生动活泼。

3)如何做?

  • prompt 中加入语气关键词,如:“请用轻松幽默的方式”、“以学术论文风格”、“像一位资深产品经理一样分析”。
  • 尝试多种风格后选择最适合的。

4)示例对比:

  • 缺乏风格引导:“分析一下新能源汽车的发展趋势。”
    • → 回答可能是中规中矩的技术性描述。
  • 加入语气引导:“请以一位科技博主的身份,用风趣且有洞察力的语言,分析当前新能源汽车市场的三大趋势,并预测未来5年可能发生的变化。”
    • → 输出更具可读性和传播性,适合社交媒体分享。

3、设计精准的指令

1)核心理念:

好的 Prompt 不只是“问问题”,而是“给指令”。要像写代码一样精确,包含输入、输出、格式、约束条件等要素。

2)为什么重要?

模糊的指令会导致模型自由发挥,偏离目标;精准的指令则能让模型“按流程执行”,输出高度可控。

3)如何做?

使用 结构化 Prompt 框架,例如:

角色 + 任务 + 输入 + 要求(格式/长度/语气)+ 限制条件

4)示例对比:

  • 普通提问:“帮我写个简历。”
    • → 结果可能千奇百怪,无法满足岗位需求。
  • 精准指令

    • 你是一位资深 HR,现在需要为一名应届计算机专业毕业生撰写一份适用于互联网大厂技术岗的简历。
          
      请根据以下信息生成简历内容
      - 姓名:李明
      - 学校:清华大学计算机系
      - GPA:3.8/4.0
      - 项目经历:开发过一个基于 Flask 的在线考试系统(含前后端)
      - 技能:Python, JavaScript, MySQL, Docker
          
      要求:
      - 使用中文,简洁专业
      - 分为‘教育背景’、‘项目经验’、‘技能专长’三部分
      - 每段不超过 3 行
      - 避免使用主观评价词汇(如‘优秀’‘卓越’)”
      

九、如何保持多轮对话话题连贯

阶段 目标 用户提示示例
1. 定义目标 明确最终产出 “我想写一篇关于AI伦理的公众号文章,目标读者是大学生。”
2. 拆解结构 列出大纲 “请帮我列一个包含引言、3个论点、结论的大纲。”
3. 逐段展开 聚焦某一部分 “现在我们来写第二部分‘算法偏见’,要求有真实案例。”
4. 整合优化 全局润色 “把全文整合一下,语言要生动,加一句金句结尾。”

1、为什么多轮对话容易“跑偏”?

大语言模型本身没有长期记忆(除非启用会话上下文),它仅基于当前输入(包括历史对话)生成回复。如果用户提问跳跃、指代不清或缺乏上下文锚点,模型就容易“断片”或误解意图。

常见问题包括:

  • 用户突然切换主题,但未明确说明;
  • 使用模糊代词(如“它”“那个”“刚才说的”)而无具体指代;
  • 上下文过长导致关键信息被截断(受 token 限制);

  • 模型错误推断用户意图,后续对话建立在错误前提上。

2、保持连贯的核心策略

1)主动锚定上下文

每次新提问时,简要回溯关键信息,帮助模型“接上话”。

  • 技巧:用“关于刚才讨论的XXX……”、“继续之前的话题……”等句式开头。

示例:

  • 混乱提问:“那怎么优化?”→ 模型不知道“那”指什么。

  • 连贯提问:“关于刚才讨论的简历写作,如果我想突出项目经验,该怎么优化描述?”

2)使用明确指代,避免模糊代词

尽量用具体名词代替“它”“这个”“那个”。

示例:

  • 模糊:“它效果不好,怎么办?”

  • 清晰:“你刚才建议的‘每日写微观点’方法,我试了三天但感觉没进步,有什么调整建议?”

3)阶段性总结与确认

每完成一个子话题,可让模型小结当前进展,或你自己做简要确认,防止累积偏差。

示例:“目前为止,我们确定了三点提升写作的方法:精读、限时写作、获取反馈。接下来我想聚焦‘如何找合适的反馈人’,你有什么建议?”这样既巩固共识,又自然过渡到下一环节。

4)控制话题边界,一次聚焦一个目标

避免在一个回合中塞入多个问题。若需切换子话题,显式声明

示例:“先暂停写作能力的话题。现在我想请教另一个问题:如何准备技术面试中的系统设计题?”

  • 这比直接问“系统设计怎么准备?”更清晰,因为模型知道这是新话题起点

5)利用角色一致性

如果你设定了模型的角色(如“你是一位产品经理”),在多轮中重复强化该角色,有助于维持回答风格和视角一致。

示例:作为一位资深 HR,请继续分析这份简历的弱点。(而不是只说“继续分析”)

6)工具辅助建议

  • 自定义指令:在支持的平台(如 ChatGPT Plus)中设置固定角色和偏好,减少每轮重复说明。
  • 外部记忆机制:对超长任务,可将关键结论保存到笔记中,后续引用。

3、实战案例

  • 用户身份:大三学生,正在和 AI 协作完成一门《科技与社会》课程的小组报告。
  • 任务目标:撰写一篇 2000 字左右的报告,主题为 “生成式 AI 对学术诚信的冲击与应对策略”
  • 协作方式:通过多轮对话,逐步完成选题聚焦、大纲设计、论点展开、案例补充、语言润色等步骤。

第1轮:明确任务边界:用户:我们小组要写一篇2000字的课程报告,主题是“生成式AI对学术诚信的冲击与应对策略”,读者是本校人文社科教授。请先帮我们确定一个有深度的分析框架。 模型:建议采用“问题—影响—对策”结构,分三部分:

  1. AI 代写现象的现状与技术原理;
  2. 对学术评价体系、学生能力发展的深层影响;
  3. 高校可采取的技术+制度双重应对策略(如教育引导+AI检测工具)。

第2轮:锚定并展开第一部分:用户:好的,我们采纳这个框架。现在聚焦第一部分“AI代写现象”。请用300字写一段引言,要求:

  • 开篇用一个真实事件引入(比如某国外高校大规模使用 ChatGPT);
  • 点出这不仅是技术问题,更是教育伦理问题;
  • 语言正式但不晦涩。

模型:【输出符合要求的引言段落】

第3轮:精准追问细节:用户:你提到“国外高校案例”,能否具体说明 2023 年澳大利亚某大学的事件?包括涉事人数、校方反应和后续政策?→ ✅ 明确时间、地点、信息维度,避免模糊。

第4轮:自然过渡到第二部分:用户:第一部分已完成。现在进入第二部分“深层影响”。请从“学生认知能力退化”和“教师评价标准失效”两个子角度,各写一段分析,每段约250字,引用至少一个教育学理论(如维果茨基的最近发展区)。 模型:【按要求输出两段分析】

第5轮:整合与优化:用户:目前我们有引言、第一部分、第二部分。请检查全文逻辑是否连贯,并建议第三部分“应对策略”应如何呼应前文提出的问题。

模型:建议策略部分对应前文两点影响:

  • 针对“能力退化” → 推行 AI 辅助而非替代的写作训练;
  • 针对“评价失效” → 引入过程性评估(如提交草稿、口头答辩)。

第6轮:收尾与格式:用户:请为全文写一个结论段(200字),强调“技术中性,关键在教育引导”,并按APA格式列出3篇参考文献(含1篇中文核心期刊)。

模型:【输出完整结论+规范参考文献】

十、缺乏创意灵感时,如何利用 prompt 激发创新思维

ContactAuthor