【人工智能】入门必知:提示词与模型参数(如max_tokens)的配合使用
摘要:本文系统介绍了提示词与模型参数(如max_tokens、temperature等)的配合使用方法。第一部分解析基础概念,说明提示词是用户的指令,而模型参数是控制生成效果的"调节旋钮"。第二部分详解常用参数功能及调节方法,包括控制长度的max_tokens、控制随机性的temperature、控制多样性的top_p等。第三部分提出四大配合原则:提示词明确需求是基础、参数取值
入门必知:提示词与模型参数(如 max_tokens)的配合使用
在使用大模型生成内容时,很多新手会遇到这样的问题:明明写了详细的提示词,可生成的结果要么字数不够,要么逻辑混乱,甚至出现内容截断的情况。其实,这不仅和提示词有关,还和模型参数的设置密切相关。模型参数(如 max_tokens、temperature 等)就像 “调节旋钮”,能控制生成内容的长度、随机性、准确性等;而提示词则是 “指挥指令”,告诉模型要生成什么内容。只有让二者默契配合,才能得到符合预期的输出。本文将从基础概念讲起,详细介绍常用模型参数、提示词与参数的配合方法、不同场景下的实战案例,帮助新手快速掌握二者的配合技巧。
1. 基础概念:什么是提示词?什么是模型参数?
在学习配合方法前,我们需要先明确两个核心概念:提示词和模型参数,知道它们各自的作用和特点。
1.1 什么是提示词?
提示词(Prompt)是我们输入给大模型的文字指令,目的是告诉模型 “要做什么”“怎么做”“生成什么样的内容”。简单来说,提示词就是我们和大模型沟通的 “桥梁”,模型会根据提示词的内容来生成对应的输出。
比如,我们想让模型写一段生日祝福,提示词可以是 “请生成一条给朋友的生日祝福短信,风格活泼,包含‘健康快乐’‘友谊长久’这两个关键词,字数控制在 50 字左右”。在这个提示词里,“给朋友的生日祝福短信” 是核心需求,“风格活泼” 是输出风格,“包含指定关键词” 是内容要求,“50 字左右” 是篇幅要求 —— 这些信息组合起来,就能引导模型生成符合预期的内容。
提示词的质量直接影响模型输出的效果。如果提示词模糊(如 “写一段生日祝福”),模型可能生成风格、长度、对象都不确定的内容;如果提示词清晰、细节丰富(如上面的例子),模型生成的内容会更精准。
1.2 什么是模型参数?
模型参数(Model Parameters)是大模型提供的可调节选项,用来控制生成内容的各项属性。不同的参数对应不同的控制维度,比如有的参数控制内容长度,有的控制内容的随机性,有的控制内容的准确性。
就像我们使用相机拍照时,“焦距” 控制画面远近,“光圈” 控制进光量,“快门速度” 控制画面清晰度 —— 模型参数就相当于大模型的 “焦距”“光圈”“快门速度”,通过调整参数,我们能让生成的内容更符合具体需求。
常用的模型参数有 max_tokens(控制内容长度)、temperature(控制内容随机性)、top_p(控制内容多样性)、frequency_penalty(控制内容重复度)等。这些参数在不同大模型(如 ChatGPT、文心一言、Claude)中基本通用,但部分参数的默认值或调节范围可能略有差异。
1.3 为什么需要提示词与模型参数配合?
单独使用提示词或单独调整模型参数,都难以达到理想的生成效果,只有二者配合,才能发挥大模型的最大价值,原因主要有三点:
第一,提示词无法完全控制所有输出属性。比如,提示词里写 “字数控制在 500 字左右”,但如果不设置 max_tokens 参数,模型可能因为 “判断失误” 生成 300 字或 800 字的内容;再比如,提示词要求 “生成严谨的学术内容”,但如果 temperature 参数设置过高,内容会出现较多随机表述,不符合 “严谨” 要求。
第二,模型参数需要提示词的 “方向指引”。参数本身只是 “调节旋钮”,如果没有提示词明确核心需求,参数调整就失去了意义。比如,将 temperature 参数设为 0.1(低随机性),但提示词写 “生成 3 个创意故事开头”,低随机性会让 3 个开头风格、情节高度相似,无法满足 “创意” 需求 —— 此时需要配合提示词明确 “每个开头的情节、场景、人物都要不同”,同时适当提高 temperature 参数,才能生成多样的创意开头。
第三,不同场景需要不同的 “提示词 + 参数” 组合。比如,生成 “学术论文摘要” 时,需要 “详细、严谨的提示词” 配合 “低 temperature、合适 max_tokens”;生成 “创意广告文案” 时,需要 “开放、灵活的提示词” 配合 “中高 temperature、足够 max_tokens”。只有根据场景调整二者的组合,才能生成高质量内容。
2. 常用模型参数详解:功能、作用与调节方法
要让提示词与模型参数配合,首先需要掌握常用参数的基本功能。本节将详细介绍 4 个最常用的模型参数:max_tokens、temperature、top_p、frequency_penalty,包括它们的作用、调节范围、不同取值对应的效果,以及适用场景。
2.1 max_tokens:控制生成内容的长度
2.1.1 功能与作用
max_tokens(最大令牌数)是控制生成内容长度的核心参数,它决定了模型生成内容的 “最大字数上限”(注:1 个 token 约等于 0.75 个中文字符,具体换算因文字复杂度略有差异)。
比如,设置 max_tokens=200,模型生成的内容大约在 150 字左右;设置 max_tokens=800,生成的内容大约在 600 字左右。需要注意的是,max_tokens 的取值包含 “输入的提示词字数” 和 “生成的输出内容字数”,也就是说,如果提示词本身已经占用了 100 个 token,那么设置 max_tokens=200 时,模型最多只能生成 100 个 token 的输出内容。
2.1.2 调节范围与效果
不同大模型的 max_tokens 最大限制不同,比如 ChatGPT 3.5 的 max_tokens 最大限制通常为 4096,ChatGPT 4 的部分版本可支持到 8192 甚至更高。日常使用中,max_tokens 的调节范围一般在 100-4000 之间,具体效果如下:
- 低取值(100-500):生成内容短,适合生成短句、标题、简单问答、核心要点等。比如,生成 “3 个产品卖点标题”“简单的天气查询回复”,设置 max_tokens=200 即可满足需求。
- 中取值(500-2000):生成内容中等长度,适合生成短文、文案、方案框架、代码片段等。比如,生成 “500 字的产品介绍文案”“1000 字的职场沟通技巧短文”,可设置 max_tokens=800-1500。
- 高取值(2000-4000):生成内容长,适合生成长篇报告、完整方案、小说章节、长代码等。比如,生成 “3000 字的企业年度总结报告”“2000 字的小说开篇章节”,需设置 max_tokens=2500-4000。
2.1.3 注意事项
- 不要设置过小:如果 max_tokens 取值过小,可能导致生成内容被截断,比如写 “生成一篇关于春季养生的短文”,设置 max_tokens=100,模型可能刚写完 “春季养生的重要性” 就被迫停止,内容不完整。
- 不要盲目设置过大:虽然 max_tokens 越大,生成内容越长,但过大的取值会增加生成时间,还可能导致模型生成冗余内容(比如重复表述、无关细节)。比如,生成 “50 字的生日祝福”,设置 max_tokens=1000,模型可能会在祝福之外添加大量无关的场景描述,反而不符合需求。
2.2 temperature:控制生成内容的随机性
2.2.1 功能与作用
temperature(温度)是控制生成内容随机性的核心参数,它决定了模型生成内容的 “创意程度” 和 “严谨程度”。简单来说,temperature 值越低,模型生成的内容越固定、越严谨、越贴近提示词原意;temperature 值越高,模型生成的内容越随机、越有创意、越可能偏离提示词原意。
比如,提示词是 “解释什么是人工智能”,设置 temperature=0.1 时,模型生成的内容会是标准、严谨的定义,每次生成的结果差异很小;设置 temperature=0.9 时,模型生成的内容可能会加入比喻、案例、不同角度的解释,每次生成的结果差异较大,创意性更强。
2.2.2 调节范围与效果
temperature 的调节范围通常为 0-2,日常使用中一般在 0-1 之间调节,具体效果如下:
- 低取值(0-0.3):随机性低,内容严谨、固定、准确。适合生成学术内容、专业报告、事实性问答、代码等对准确性要求高的内容。比如,生成 “数学公式推导过程”“金融数据分析报告”“可运行的 Python 代码”,建议设置 temperature=0.1-0.2。
- 中取值(0.3-0.7):随机性中等,内容兼顾严谨与创意。适合生成文案、短文、方案建议、科普文章等既需要准确又需要一定创意的内容。比如,生成 “产品宣传文案”“科普短文”“职场建议”,建议设置 temperature=0.4-0.6。
- 高取值(0.7-1.0):随机性高,内容创意性强、多样性高。适合生成创意故事、广告创意、灵感启发、头脑风暴等对创意要求高的内容。比如,生成 “小说情节构思”“广告 slogan”“创意活动方案”,建议设置 temperature=0.8-1.0。
需要注意的是,temperature 值超过 1.0 后,生成内容的随机性会过高,容易出现逻辑混乱、无关信息甚至错误内容,一般不建议使用。
2.2.1 注意事项
- 根据内容类型选择取值:不要所有场景都用同一个 temperature 值。比如,生成 “医疗健康建议” 时,用高 temperature 值可能导致生成错误的健康知识,误导用户;生成 “创意诗歌” 时,用低 temperature 值会让诗歌缺乏新意,显得呆板。
- 结合提示词细节调整:如果提示词本身已经很详细(如 “生成 3 个产品卖点,每个卖点需包含‘功能 + 用户利益’”),即使 temperature 值稍高,模型也不容易偏离需求;如果提示词较模糊(如 “生成产品卖点”),则需要降低 temperature 值,避免生成无关内容。
2.3 top_p:控制生成内容的多样性(与 temperature 互补)
2.3.1 功能与作用
top_p(核采样)也是控制生成内容多样性的参数,它和 temperature 的作用类似,但控制逻辑不同。temperature 是通过调整 “概率分布的平滑度” 来控制随机性,而 top_p 是通过 “选择概率最高的前 p% 的词汇” 来控制多样性。
简单来说,top_p 值越低,模型只会从概率最高的少数词汇中选择,生成的内容越固定、越集中;top_p 值越高,模型会从概率更高的多个词汇中选择,生成的内容越多样、越灵活。比如,top_p=0.1 时,模型只选概率前 10% 的词汇,内容高度固定;top_p=0.9 时,模型选概率前 90% 的词汇,内容多样性更高。
2.3.2 调节范围与效果
top_p 的调节范围通常为 0-1,日常使用中一般在 0.1-0.9 之间调节,具体效果如下:
- 低取值(0.1-0.3):多样性低,内容集中、固定。适合生成事实性信息、准确回答、标准定义等对准确性要求高的内容,效果和低 temperature 值类似。比如,生成 “历史事件的时间线”“科学定理的表述”,可设置 top_p=0.1-0.2。
- 中取值(0.3-0.7):多样性中等,内容兼顾准确与灵活。适合生成科普文章、方案框架、日常文案等内容,效果和中 temperature 值类似。比如,生成 “产品使用说明书框架”“日常公众号推文”,可设置 top_p=0.4-0.6。
- 高取值(0.7-0.9):多样性高,内容灵活、多样。适合生成创意内容、灵感启发、多角度建议等,效果和高 temperature 值类似。比如,生成 “多角度的营销方案建议”“创意故事的不同结局”,可设置 top_p=0.8-0.9。
2.3.3 注意事项
- 不要同时调节 temperature 和 top_p:通常情况下,只需要调节其中一个参数即可控制内容的随机性和多样性。如果同时调节两个参数,可能会导致效果不可控。比如,同时设置 temperature=0.9、top_p=0.1,模型可能既想生成多样内容,又只能选择少数词汇,最终导致内容逻辑混乱。
- 根据场景选择参数:如果更关注 “创意的丰富度”,建议调节 temperature;如果更关注 “内容的集中度”,建议调节 top_p。比如,生成 “创意广告文案”,更关注丰富度,用 temperature=0.8 更合适;生成 “多个准确的产品功能描述”,更关注集中度,用 top_p=0.3 更合适。
2.4 frequency_penalty:控制生成内容的重复度
2.4.1 功能与作用
frequency_penalty(频率惩罚)是控制生成内容重复度的参数,它能 “惩罚” 模型重复使用相同或相似的词汇、句子,从而减少内容中的重复表述。简单来说,frequency_penalty 值越高,模型生成的内容重复度越低;值越低,重复度越高。
比如,提示词是 “生成一段关于环保的短文”,设置 frequency_penalty=0 时,模型可能会多次重复 “环保很重要”“我们要环保” 这类句子;设置 frequency_penalty=1.0 时,模型会尽量使用不同的表述来表达环保的重要性,如 “环保是守护地球的关键”“践行环保能让未来更美好” 等,重复度大幅降低。
2.4.2 调节范围与效果
frequency_penalty 的调节范围通常为 - 2-2,日常使用中一般在 0-1.5 之间调节,具体效果如下:
- 低取值(0-0.5):重复度较高,模型可能会重复使用部分词汇或句子。适合生成需要强调核心信息的内容,比如 “产品核心卖点的反复强调”“重要通知的重复提醒”,可设置 frequency_penalty=0-0.3。
- 中取值(0.5-1.0):重复度中等,模型会适当避免重复,同时保持内容连贯性。适合生成大多数常规内容,如短文、文案、报告、方案等,可设置 frequency_penalty=0.6-0.8。
- 高取值(1.0-1.5):重复度低,模型会尽量使用多样的表述,避免重复。适合生成长篇内容(如万字报告、小说章节)、需要丰富表述的内容(如散文、科普长文),可设置 frequency_penalty=1.2-1.5。
需要注意的是,frequency_penalty 值超过 1.5 后,模型可能会为了避免重复而使用生僻词汇或不自然的表述,影响内容的可读性,一般不建议使用;而负值(如 - 2-0)会增加重复度,除非有特殊强调需求,否则不建议使用。
2.4.3 注意事项
- 结合内容长度调整:长篇内容更容易出现重复,需要更高的 frequency_penalty 值;短篇内容重复度问题不明显,可适当降低值。比如,生成 “3000 字的环保报告”,设置 frequency_penalty=1.2;生成 “50 字的环保口号”,设置 frequency_penalty=0.5 即可。
- 避免过度惩罚:过高的 frequency_penalty 可能导致内容逻辑不连贯。比如,生成 “故事章节” 时,设置 frequency_penalty=1.8,模型可能为了避免重复某个角色的名字,而频繁用 “他”“那个角色”“某人” 替代,导致读者不清楚指代对象,影响阅读体验。
3. 提示词与模型参数配合的核心原则
掌握了常用参数的功能后,还需要遵循核心原则,才能让提示词与参数真正配合到位。这些原则能帮助我们避免常见错误,快速找到适合场景的 “提示词 + 参数” 组合。
3.1 原则 1:“提示词明确需求” 是基础,参数是 “优化工具”
无论如何调整参数,提示词首先要明确核心需求 —— 如果提示词模糊、需求不清晰,即使参数设置得再合理,生成的内容也难以符合预期。参数的作用是 “优化”,而不是 “拯救” 模糊的提示词。
比如,模糊的提示词:“写一篇关于手机的文章”。此时即使设置 max_tokens=1000、temperature=0.5,模型也不知道要写手机的 “功能”“历史”“选购技巧” 还是 “使用误区”,生成的内容可能杂乱无章。
明确的提示词:“写一篇 800 字的手机选购技巧短文,针对预算 3000-5000 元的用户,包含‘处理器、屏幕、电池、摄像头’4 个核心选购要点,语言通俗易懂”。此时再设置 max_tokens=1000(确保字数足够)、temperature=0.5(兼顾准确与易懂),模型就能生成精准的内容。
操作建议:在调整参数前,先检查提示词是否满足 “3 个明确”—— 明确核心需求(要做什么)、明确输出要求(格式、风格、篇幅)、明确目标受众(写给谁看)。只有满足这 3 个明确,再调整参数才能起到优化效果。
3.2 原则 2:“参数取值” 与 “提示词需求” 匹配,不盲目追求 “极端值”
参数的取值没有 “绝对的好坏”,只有 “是否与提示词需求匹配”。比如,temperature=0.9 不是 “不好”,但如果提示词需求是 “生成严谨的数学证明”,这个取值就不匹配;max_tokens=4000 不是 “更好”,如果提示词需求是 “生成 10 字以内的标题”,这个取值就是浪费资源。
比如,提示词需求是 “生成 3 个准确的历史事件时间(如‘辛亥革命发生在 1911 年’)”。此时需要 “准确、固定” 的输出,应设置 temperature=0.1(低随机性)、max_tokens=100(短长度),参数与需求匹配,生成的结果会准确无误。如果盲目设置 temperature=0.9(高随机性),模型可能会生成 “辛亥革命发生在 1912 年” 这类错误信息;如果设置 max_tokens=2000(长长度),模型会在时间之外添加大量无关的事件描述,不符合需求。
操作建议:拿到提示词后,先判断核心需求的 “关键词”(如 “准确”“创意”“简短”“长篇”),再根据关键词选择参数取值。比如,需求关键词是 “准确”,对应低 temperature/top_p;关键词是 “创意”,对应中高 temperature/top_p;关键词是 “简短”,对应低 max_tokens;关键词是 “长篇”,对应中高 max_tokens。
3.3 原则 3:“先固定核心参数,再微调辅助参数”,降低调整难度
面对多个可调节参数,新手容易陷入 “同时调整所有参数” 的误区,导致无法判断哪个参数影响了输出效果。正确的做法是 “先固定核心参数,再微调辅助参数”,逐步找到最佳组合。
核心参数是指与提示词核心需求直接相关的参数,比如:
- 如果需求是 “控制内容长度”,核心参数是 max_tokens;
- 如果需求是 “控制内容准确性”,核心参数是 temperature/top_p;
- 如果需求是 “控制内容重复度”,核心参数是 frequency_penalty。
辅助参数是指对核心需求影响较小的参数,比如需求是 “控制内容长度” 时,frequency_penalty 就是辅助参数,可在固定 max_tokens 后再微调。
比如,提示词需求是 “生成一篇 800 字、无重复表述的职场沟通技巧短文”。调整步骤如下:
- 固定核心参数 max_tokens:根据 “800 字” 需求,设置 max_tokens=1000(预留部分 token 避免截断);
- 固定核心参数 frequency_penalty:根据 “无重复表述” 需求,设置 frequency_penalty=0.8(中高惩罚);
- 微调辅助参数 temperature:根据 “短文需兼顾实用与易懂” 需求,先设置 temperature=0.5,生成后若觉得内容太呆板,再调整为 0.6,逐步找到最佳值。
操作建议:每次调整只改变 1 个参数,对比调整前后的输出效果,就能明确该参数对结果的影响。比如,先固定 max_tokens=1000、frequency_penalty=0.8,第一次设置 temperature=0.5,第二次设置 temperature=0.6,对比两次输出的 “灵活度”,就能判断哪个 temperature 值更符合需求。
3.4 原则 4:“结合模型默认值” 调整,减少试错成本
不同大模型的参数默认值不同(如 ChatGPT 3.5 的 temperature 默认值是 0.7,文心一言的 temperature 默认值可能是 0.6),这些默认值是模型针对 “通用需求” 优化后的取值,适合大多数常规场景。新手可先基于默认值调整,减少试错成本。
比如,提示词需求是 “生成一篇 500 字的通用科普短文(如‘什么是光合作用’)”,这类需求属于 “常规场景”,可先使用模型的默认参数:
- 如果模型默认 temperature=0.7、max_tokens=1000、frequency_penalty=0.5,生成后若觉得内容 “有点太灵活,不够严谨”,再将 temperature 微调为 0.5;若觉得 “字数太多,500 字足够”,再将 max_tokens 微调为 700。
如果不结合默认值,直接设置 temperature=0.1、max_tokens=500,可能会导致内容过于呆板、字数不足,反而需要更多次调整。
操作建议:使用新模型前,先查看该模型的 “参数默认值说明”(通常在模型的帮助文档或设置界面),了解默认值对应的效果。对于常规需求,先按默认值生成,再根据输出效果微调;对于特殊需求(如高创意、高准确),再偏离默认值设置参数。
4. 不同场景下 “提示词 + 模型参数” 配合实战案例
理论需要结合实战,本节将针对 4 个常见使用场景(事实性问答、创意文案生成、学术内容生成、代码生成),详细讲解 “提示词设计 + 参数设置” 的配合方法,每个案例包含 “场景需求、提示词设计、参数设置、生成效果验证” 四个部分,帮助新手直接套用。
4.1 场景 1:事实性问答(如 “查询历史事件、科学知识、数据信息”)
4.1.1 场景需求
核心需求:生成准确、固定、简短的答案,无错误信息、无冗余内容。比如,“查询‘五四运动’的发生时间、主要原因、历史意义”“查询‘水的沸点是多少摄氏度(标准大气压下)’”。
4.1.2 提示词设计
需满足 “3 个明确”:
- 明确核心需求:直接提出问题,包含 “关键信息点”(如时间、原因、意义);
- 明确输出要求:格式为 “分点列表”(清晰)、篇幅 “简短”(每点不超过 30 字);
- 明确准确性要求:注明 “需基于事实,无错误信息”。
示例提示词:“请回答以下问题,要求:1. 问题:查询‘五四运动’的发生时间、主要原因、历史意义;2. 输出格式:分点列表,每点不超过 30 字;3. 基于事实,无错误信息,语言简洁。”
4.1.3 参数设置
- max_tokens:需求是 “简短答案”,设置为 200(足够生成 3 个分点,约 150 字);
- temperature:需求是 “准确、固定”,设置为 0.1(低随机性,避免错误);
- top_p:配合 temperature,设置为 0.2(低多样性,内容固定);
- frequency_penalty:需求无 “重复度” 特殊要求,使用模型默认值(如 0.5)即可。
4.1.4 生成效果验证
验证标准:
- 准确性:答案是否符合事实(如 “五四运动发生在 1919 年 5 月 4 日” 是否正确);
- 完整性:是否包含提示词要求的所有信息点(时间、原因、意义是否都有);
- 简洁性:是否无冗余内容(是否只回答问题,无无关描述)。
示例正确输出:
- 发生时间:1919 年 5 月 4 日,发生于中国北京;
- 主要原因:反对巴黎和会将德国在山东权益转让给日本;
- 历史意义:促进马克思主义传播,是新民主主义革命开端。
如果生成的内容包含 “五四运动后中国发生了抗日战争” 这类无关信息,说明 max_tokens 设置过大或 temperature 过高,需调整参数重新生成。
4.2 场景 2:创意文案生成(如 “产品宣传文案、广告 slogan、公众号标题”)
4.2.1 场景需求
核心需求:生成多样、有吸引力、符合品牌风格的文案,避免呆板、重复。比如,“为‘低糖奶茶’生成 3 条朋友圈宣传文案,风格活泼,包含‘低糖不胖’‘口感丝滑’关键词”“为‘户外运动鞋’生成 2 条广告 slogan,风格有力量,包含‘耐磨’‘轻便’关键词”。
4.2.2 提示词设计
需满足 “3 个明确”:
- 明确核心需求:包含 “产品类型、文案数量、核心卖点”(如 “低糖奶茶、3 条、低糖不胖 + 口感丝滑”);
- 明确输出要求:格式为 “每条独立成句”、风格为 “活泼 / 有力量”;
- 明确创意要求:注明 “每条文案风格略有差异,避免重复表述”。
示例提示词:“请为‘低糖奶茶’生成 3 条朋友圈宣传文案,要求:1. 每条包含‘低糖不胖’‘口感丝滑’关键词;2. 风格活泼,适合年轻人;3. 每条独立成句,长度 20 字以内;4. 3 条文案风格略有差异,不重复。”
4.2.3 参数设置
- max_tokens:需求是 “3 条 20 字以内的文案”,设置为 200(足够生成,避免截断);
- temperature:需求是 “多样、创意”,设置为 0.8(中高随机性,保证多样性);
- top_p:配合 temperature,设置为 0.9(中高多样性,避免内容局限);
- frequency_penalty:需求是 “避免重复”,设置为 0.7(中惩罚,减少重复表述)。
4.2.4 生成效果验证
验证标准:
- 创意性:3 条文案风格是否有差异(如一条偏 “场景化”,一条偏 “对话式”,一条偏 “感叹式”);
- 相关性:是否包含所有核心卖点(“低糖不胖”“口感丝滑” 是否都有);
- 吸引力:是否符合目标受众喜好(年轻人是否觉得 “活泼、有吸引力”)。
示例正确输出:
- 喝低糖奶茶超快乐!低糖不胖还丝滑,一口就爱上~;
- 怕胖又想喝奶茶?这款低糖不胖,口感丝滑超可!;
- 每天一杯低糖奶茶:低糖不胖无负担,口感丝滑超满足!
如果 3 条文案风格高度相似(如都用 “低糖不胖的奶茶,口感丝滑” 开头),说明 temperature/top_p 设置过低,需提高取值重新生成;如果缺少 “低糖不胖” 关键词,说明提示词中 “核心卖点” 的表述不够突出,需修改提示词后重新生成。
4.3 场景 3:学术内容生成(如 “论文摘要、实验报告框架、文献综述要点”)
4.3.1 场景需求
核心需求:生成严谨、准确、逻辑清晰的内容,包含 “专业术语、数据支撑、结构化框架”,避免随机性、口语化。比如,“生成‘人工智能在教育领域应用’的论文摘要,包含‘研究背景、研究方法、研究结果、研究结论’4 个部分,语言严谨,有数据支撑(如‘引用 30 篇文献’)”。
4.3.2 提示词设计
需满足 “3 个明确”:
- 明确核心需求:包含 “学术内容类型、核心结构、专业要求”(如 “论文摘要、4 个部分、有数据支撑”);
- 明确输出要求:格式为 “分部分表述”、语言为 “严谨、专业”、篇幅为 “300 字左右”;
- 明确细节要求:注明 “专业术语使用准确,避免口语化词汇(如‘大概’‘可能’)”。
示例提示词:“请生成‘人工智能在教育领域应用’的论文摘要,要求:1. 包含‘研究背景、研究方法、研究结果、研究结论’4 个部分;2. 语言严谨、专业,使用准确的教育技术术语;3. 有数据支撑(如‘分析 50 篇相关文献’‘实验涉及 200 名学生’);4. 篇幅 300 字左右,分部分表述,避免口语化。”
4.3.3 参数设置
- max_tokens:需求是 “300 字左右的摘要”,设置为 400(预留 token,避免结构不完整);
- temperature:需求是 “严谨、准确”,设置为 0.2(低随机性,保证专业术语准确);
- top_p:配合 temperature,设置为 0.3(低多样性,避免逻辑混乱);
- frequency_penalty:需求是 “逻辑清晰,无重复”,设置为 0.6(中惩罚,减少重复表述)。
4.3.4 生成效果验证
验证标准:
- 严谨性:专业术语是否准确(如 “人工智能” 是否被表述为 “AI 技术”,符合学术规范);
- 结构性:是否包含所有要求的部分(研究背景、方法、结果、结论是否完整);
- 准确性:数据支撑是否合理(如 “分析 50 篇文献” 是否符合摘要的常规数据范围,无 “分析 1000 篇文献” 这类不合理数据)。
示例正确输出:
- 研究背景:随着人工智能技术发展,其在教育领域的应用逐渐广泛,但现有研究缺乏对 “个性化学习” 场景的深入分析(引用 50 篇相关文献);
- 研究方法:采用 “文献分析 + 案例研究” 方法,选取 3 所中小学的 AI 教学案例进行分析;
- 研究结果:AI 技术可提升学生学习效率 15%-20%,但在 “师生互动” 方面存在不足;
- 研究结论:需优化 AI 教学系统的互动功能,才能更好适配教育场景需求(总字数 310 字)。
如果生成的内容包含 “大概分析了几十篇文献” 这类口语化表述,说明 temperature 设置过高或提示词中 “避免口语化” 的要求不够明确,需调整参数或修改提示词;如果缺少 “研究结果” 部分,说明 max_tokens 设置过小,需提高取值重新生成。
4.4 场景 4:代码生成(如 “Python 数据处理代码、Java 接口开发代码、SQL 查询语句”)
4.4.1 场景需求
核心需求:生成可运行、符合编程规范、功能准确的代码,包含 “注释、输入输出说明”,避免语法错误、冗余代码。比如,“生成 Python 代码,实现‘读取 CSV 文件(路径为 “data.csv”)中的 “销售额” 列,计算该列的平均值并打印结果’,要求有详细注释,符合 PEP 8 规范”。
4.4.2 提示词设计
需满足 “3 个明确”:
- 明确核心需求:包含 “编程语言、功能需求、文件路径 / 参数”(如 “Python、计算销售额平均值、路径为 “data.csv”);
- 明确输出要求:格式为 “代码 + 注释”、规范为 “符合 PEP 8(Python)/Java 代码规范”;
- 明确细节要求:注明 “包含输入输出说明(如‘输入:CSV 文件中的销售额列’)、避免使用过时函数”。
示例提示词:“请生成 Python 代码,实现以下功能,要求:1. 功能:读取 CSV 文件(路径为 “data.csv”)中的 “销售额” 列,计算该列的平均值并打印结果;2. 代码要求:符合 PEP 8 规范,有详细注释(每步功能说明);3. 细节:包含输入输出说明,避免使用 pandas 库的过时函数(如 read_csv 的旧版参数);4. 输出格式:先写输入输出说明,再写代码。”
4.4.3 参数设置
- max_tokens:需求是 “简短的 Python 代码 + 说明”,设置为 500(足够生成代码、注释和说明);
- temperature:需求是 “可运行、准确”,设置为 0.1(低随机性,避免语法错误);
- top_p:配合 temperature,设置为 0.2(低多样性,保证代码功能固定);
- frequency_penalty:需求无 “重复度” 特殊要求,使用模型默认值(如 0.5)即可。
4.4.4 生成效果验证
验证标准:
- 可运行性:代码是否有语法错误(如括号缺失、变量未定义);
- 功能性:运行后是否能实现预期功能(如是否能正确读取 CSV 文件、计算平均值);
- 规范性:是否符合编程规范(如 Python 代码是否符合 PEP 8 的缩进、命名要求)。
示例正确输出:
- 输入说明:输入为 CSV 文件 “data.csv”,需包含 “销售额” 列,列中数据为数值类型;
- 输出说明:输出为 “销售额列的平均值”,打印格式为 “销售额平均值:XX.XX”;
- 代码:
# 导入pandas库,用于数据处理(确保已安装pandas库:pip install pandas)
import pandas as pd
def calculate_sales_average(file_path):
"""
计算CSV文件中“销售额”列的平均值
参数:file_path - CSV文件路径(字符串)
返回:无,直接打印平均值
"""
# 读取CSV文件,仅保留“销售额”列
# 使用usecols参数指定列,避免读取无关数据(符合PEP 8规范)
df = pd.read_csv(file_path, usecols=["销售额"])
# 检查“</doubaocanvas>
销售额” 列是否存在,避免报错
if "销售额" not in df.columns:
print ("错误:CSV 文件中未找到 “销售额” 列,请检查文件格式")
return
将 “销售额” 列转换为数值类型,无法转换的值设为 NaN(避免计算错误)
df ["销售额"] = pd.to_numeric (df ["销售额"], errors="coerce")
去除包含 NaN 的行(避免影响平均值计算)
df_clean = df.dropna (subset=["销售额"])
检查清洗后的数据是否为空,避免计算错误
if df_clean.empty:
print ("错误:“销售额” 列中无有效数值数据,无法计算平均值")
return
计算平均值,保留 2 位小数
average_sales = round (df_clean ["销售额"].mean (), 2)
打印结果
print (f"销售额平均值:{average_sales}")
调用函数,传入 CSV 文件路径
calculate_sales_average("data.csv")
如果生成的代码缺少“检查列是否存在”或“数据类型转换”的逻辑,说明提示词中“避免报错”的细节要求不够明确,需补充提示词(如“代码需包含异常处理,如列不存在、数据无法转换时提示错误”);如果代码缩进不规范(如使用空格和制表符混合缩进),说明temperature设置过高或提示词中“符合PEP 8规范”的要求不够突出,需调整参数或修改提示词。
### 4.5 场景5:长篇内容生成(如“万字报告、小说章节、完整方案”)
#### 4.5.1 场景需求
核心需求:生成逻辑连贯、内容完整、无重复表述的长篇内容,包含“结构化框架、详细细节、合理分段”。比如,“生成‘企业年度培训计划’万字报告,包含‘培训目标、培训对象、培训内容(分部门)、培训时间安排、培训预算、效果评估方法’6个部分,语言正式、逻辑清晰”。
#### 4.5.2 提示词设计
需满足“3个明确”:
- 明确核心需求:包含“内容类型、核心结构(分部分)、篇幅要求(万字)”;
- 明确输出要求:格式为“每个部分用二级标题(如“2. 培训对象”)、每部分包含3-5个小点(详细细节)、语言正式”;
- 明确逻辑要求:注明“各部分之间逻辑连贯,无重复内容,每个小点有具体说明(如培训内容需说明“培训主题、培训时长、培训方式”)”。
示例提示词:“请生成‘企业年度培训计划’万字报告,要求:1. 包含6个核心部分:①培训目标、②培训对象(按部门划分)、③培训内容(分部门设计,每个部门包含“培训主题、时长、方式”)、④培训时间安排(按月度规划)、⑤培训预算(分项目列出金额)、⑥效果评估方法;2. 输出格式:每个部分用二级标题(如“2. 培训对象”),每部分包含3-5个小点,每个小点有具体说明(如培训主题需说明“针对该部门的核心需求”);3. 语言正式、逻辑连贯,无重复表述,总字数约10000字;4. 培训对象包含“技术部、销售部、行政部、财务部”4个部门,培训时间为“下一年1-12月”。”
#### 4.5.3 参数设置
- max_tokens:需求是“万字报告”(约13333个token),但多数模型单次max_tokens限制为4096或8192,需分多次生成,每次设置max_tokens=4000(每次生成约3000字,预留token保证结构完整);
- temperature:需求是“逻辑连贯、正式”,设置为0.4(中低随机性,保证逻辑和正式度);
- top_p:配合temperature,设置为0.5(中低多样性,避免逻辑混乱);
- frequency_penalty:需求是“无重复表述”,设置为1.2(中高惩罚,减少重复)。
#### 4.5.4 生成效果验证
验证标准:
1. 结构性:是否包含所有要求的部分,每个部分是否有3-5个小点(如培训内容是否分4个部门设计);
2. 连贯性:各部分之间是否有逻辑衔接(如培训时间安排是否与培训内容匹配);
3. 完整性:每个小点是否有具体说明(如培训预算是否分项目列出金额,无“预算约10万元”这类模糊表述);
4. 无重复性:是否无重复内容(如“效果评估方法”是否未在其他部分重复出现)。
示例正确输出(部分片段):
“# 企业年度培训计划(下一年)
## 1. 培训目标
1.1 技术部:提升员工对“新开发框架(如Vue3)”的掌握能力,确保下一年度2个核心项目顺利上线;
1.2 销售部:提高员工“客户沟通技巧”和“产品专业知识”,目标下一年度销售额提升15%;
1.3 行政部:强化“办公流程标准化”和“应急事件处理”能力,减少办公失误率30%;
1.4 财务部:掌握“新财税政策(如2024年个税调整)”和“财务数据分析工具”,提高财务报表准确性。
## 2. 培训对象
2.1 技术部:全体50名员工(含实习生,需参加基础培训;资深工程师,需参加进阶培训);
2.2 销售部:全体35名员工(含新入职员工,需参加入职培训;老员工,需参加提升培训);
2.3 行政部:全体15名员工(无岗位差异,需参加统一培训);
2.4 财务部:全体10名员工(含会计、出纳,需参加专业培训;财务经理,需参加管理培训)。”
如果生成的内容缺少“培训预算分项目列出金额”这类具体说明,说明提示词中“每个小点有具体说明”的要求不够明确,需补充提示词;如果各部分逻辑不衔接(如培训时间安排为“1月培训销售部产品知识”,但培训内容中销售部产品知识培训安排在3月),说明temperature设置过高,需降低取值重新生成。
## 5. 新手常见错误及解决方法:提示词与参数配合不当的问题
新手在使用“提示词+参数”配合时,容易出现各种问题,导致生成效果不佳。本节总结5个常见错误,分析错误原因并给出解决方法,帮助新手快速避坑。
### 5.1 错误1:提示词模糊,却怪参数设置无效
#### 5.1.1 错误表现
提示词写得模糊(如“写一篇关于环保的文章”),生成内容不符合预期后,反复调整参数(如多次修改temperature、max_tokens),但效果仍差。
#### 5.1.2 错误原因
提示词未明确核心需求(如文章类型、篇幅、目标受众),参数无法“无中生有”地补全需求。参数的作用是“优化”,不是“拯救”模糊的提示词——即使参数设置得再合理,模型也不知道要生成“环保科普短文”还是“环保政策报告”。
#### 5.1.3 解决方法
先优化提示词,确保满足“3个明确”,再调整参数。比如,将模糊提示词改为:“请写一篇800字的环保科普短文,目标受众为小学生,包含‘3个日常环保小行动(附步骤)’,语言简单易懂,输出格式为分点列表+小标题”。此时再设置max_tokens=1000、temperature=0.5,生成的内容会更符合预期。
### 5.2 错误2:参数取值极端,导致内容质量差
#### 5.2.1 错误表现
盲目设置极端参数值,如:
- 生成“严谨的学术摘要”,却设置temperature=1.0(高随机性),导致内容逻辑混乱、错误信息多;
- 生成“创意广告文案”,却设置temperature=0.1(低随机性),导致内容呆板、无创意;
- 生成“50字的生日祝福”,却设置max_tokens=2000(高长度),导致内容冗余、无关信息多。
#### 5.2.2 错误原因
不理解参数取值与需求的匹配关系,认为“参数值越大越好”或“参数值越小越准确”,忽视需求的核心关键词(如“严谨”对应低temperature,“创意”对应中高temperature)。
#### 5.2.3 解决方法
根据需求的核心关键词选择参数取值,避免极端值:
- 需求关键词为“准确、严谨、固定”,temperature取0.1-0.3,top_p取0.1-0.3;
- 需求关键词为“创意、多样、灵活”,temperature取0.7-1.0,top_p取0.7-0.9;
- 需求关键词为“简短、精炼”,max_tokens取100-500;
- 需求关键词为“长篇、详细”,max_tokens取2000-4000(分多次生成)。
### 5.3 错误3:同时调整多个参数,无法定位问题
#### 5.3.1 错误表现
生成内容不符合预期后,同时调整多个参数(如将temperature从0.5改为0.8,同时将max_tokens从1000改为1500,还将frequency_penalty从0.5改为1.0),生成后仍不符合预期,却不知道是哪个参数导致的问题,陷入反复调整的循环。
#### 5.3.2 错误原因
违反“先固定核心参数,再微调辅助参数”的原则,多个参数同时变化,无法判断每个参数对输出效果的影响——比如,内容从“呆板”变为“逻辑混乱”,可能是temperature过高导致,也可能是max_tokens过大导致,无法定位。
#### 5.3.3 解决方法
每次只调整1个参数,对比调整前后的输出效果,定位问题:
1. 固定其他参数(如max_tokens=1000、frequency_penalty=0.5),只将temperature从0.5改为0.8,生成后观察内容是否从“呆板”变为“有创意但不混乱”;
2. 如果效果变好,说明temperature调整有效;如果效果变差(如逻辑混乱),说明temperature调整过度,需回调;
3. 确定temperature的最佳值后,再调整下一个参数(如max_tokens),重复步骤1-2。
### 5.4 错误4:忽视max_tokens包含“提示词+输出”的总长度
#### 5.4.1 错误表现
设置max_tokens=500,提示词本身已占用300个token(约225字),但期望生成500字(约667个token)的输出,结果生成的内容被截断(如刚写完开头就停止),却误以为是模型故障。
#### 5.4.2 错误原因
不了解max_tokens的计算规则:max_tokens的取值是“输入提示词的token数”与“输出内容的token数”之和,不是仅指输出内容的token数。如果提示词过长,输出内容的token数会被压缩,导致内容截断。
#### 5.4.3 解决方法
1. 估算提示词的token数(可使用在线token计算器,如OpenAI Token Calculator,输入提示词即可估算);
2. 计算输出内容所需的token数(如500字约667个token);
3. 设置max_tokens=提示词token数+输出内容token数+100(预留100个token,避免截断)。
示例:提示词估算为300个token,输出内容需667个token,设置max_tokens=300+667+100=1067,确保输出内容完整。
### 5.5 错误5:不同模型用相同参数,忽视模型差异
#### 5.5.1 错误表现
在ChatGPT中设置“temperature=0.7、max_tokens=1000”生成的内容符合预期,将相同参数直接用到文心一言中,生成的内容却逻辑混乱、字数不足,却不知道是参数不匹配导致。
#### 5.5.2 错误原因
忽视不同模型的参数默认值和“参数敏感度”差异:比如,文心一言的temperature默认值可能是0.6,对temperature的敏感度更高,设置为0.7时,随机性会比ChatGPT的0.7更高,导致内容混乱;再比如,部分模型的max_tokens计算规则略有不同,相同取值下输出字数可能更少。
#### 5.5.3 解决方法
1. 使用新模型前,查看该模型的“参数说明文档”,了解参数默认值和敏感度(如“该模型temperature取值0.5-0.6对应中等随机性”);
2. 初次使用新模型时,先按模型默认值生成,再根据输出效果微调(如文心一言默认temperature=0.6,生成内容若太呆板,再调整为0.7);
3. 若需要迁移参数,先小范围测试(如生成100字内容),验证参数是否适配,再生成完整内容。
## 6. 工具推荐:辅助提示词与参数配合的实用工具
为了提高“提示词+参数”配合的效率,减少手动调整的工作量,本节推荐4个实用工具,涵盖“token估算、参数推荐、提示词优化、多模型对比”四个方面,新手可直接使用。
### 6.1 工具1:Token估算工具——OpenAI Token Calculator(在线)
#### 6.1.1 功能
估算输入提示词的token数,帮助设置合理的max_tokens值,避免内容截断。
#### 6.1.2 使用方法
1. 打开网址:https://platform.openai.com/tokenizer(无需注册,直接使用);
2. 在输入框中粘贴提示词(如“请生成一篇800字的环保科普短文...”);
3. 工具会自动显示提示词的“字符数”和“token数”(如“字符数:500,token数:375”);
4. 根据输出需求计算max_tokens:如输出需800字(约1067个token),设置max_tokens=375+1067+100=1542。
#### 6.1.3 优势
免费、无需注册、操作简单,支持多语言(中文、英文等),估算准确率高(误差在5%以内),适合所有需要设置max_tokens的场景。
### 6.2 工具2:参数推荐工具——PromptBase Parameter Advisor(在线)
#### 6.2.1 功能
根据输入的“场景类型”和“需求关键词”,自动推荐合适的参数取值(如temperature、max_tokens、top_p、frequency_penalty)。
#### 6.2.2 使用方法
1. 打开网址:https://www.promptbase.com/parameter-advisor(部分功能免费,注册后可使用全部功能);
2. 选择场景类型(如“创意文案生成”“学术内容生成”“代码生成”);
3. 输入需求关键词(如“创意文案生成”场景,输入“产品宣传、活泼风格、3条文案”);
4. 工具会生成“参数推荐列表”(如“temperature:0.8-0.9,max_tokens:200,top_p:0.9,frequency_penalty:0.7”);
5. 根据推荐参数,结合模型特点微调(如模型对temperature敏感度高,可将0.9调整为0.85)。
#### 6.2.3 优势
新手友好,无需记住参数取值规则,根据场景和需求直接获取推荐值,减少试错成本,支持10+常见场景类型。
### 6.3 工具3:提示词优化工具——ChatGPT Prompt Enhancer(插件/在线)
#### 6.3.1 功能
将模糊、简单的提示词优化为“明确、详细、符合模型理解习惯”的提示词,包含“核心需求、输出要求、目标受众”等要素,为参数配合打下基础。
#### 6.3.2 使用方法(以在线版为例)
1. 打开网址:https://chatgpt-prompt-enhancer.com(免费使用);
2. 在“原始提示词”输入框中粘贴模糊提示词(如“写一篇关于环保的文章”);
3. 选择目标场景(如“科普短文”)和目标受众(如“小学生”);
4. 点击“优化提示词”,工具会生成优化后的提示词(如“请写一篇800字的环保科普短文,目标受众为小学生,包含‘3个日常环保小行动(附步骤)’,语言简单易懂,输出格式为分点列表+小标题,基于事实,无错误信息”);
5. 将优化后的提示词复制到模型中,配合推荐参数使用。
#### 6.3.3 优势
快速优化提示词,避免新手因“提示词模糊”导致配合失败,支持多场景、多受众选择,优化后的提示词符合“3个明确”原则。
### 6.4 工具</doubaocanvas>
6.4 工具 4:多模型对比工具 ——Hugging Face Open Playground(在线)
6.4.1 功能
支持同时在多个大模型(如 GPT-2、BERT、LLaMA 等)中输入相同的提示词和参数,对比不同模型的生成效果,帮助选择最适配 “提示词 + 参数” 组合的模型。
6.4.2 使用方法
- 在 “Model” 下拉菜单中选择需要对比的模型(如同时选择 “gpt2-large”“distilgpt2”);
- 在 “Prompt” 输入框中粘贴优化后的提示词(如 “请生成 3 条低糖奶茶的朋友圈宣传文案...”);
- 在 “Parameters” 部分设置统一的参数(如 temperature=0.8、max_tokens=200、frequency_penalty=0.7);
- 点击 “Run” 按钮,工具会同时生成每个模型的输出结果;
- 对比结果:查看哪个模型的生成内容更符合需求(如更活泼、包含所有关键词),选择该模型作为最终使用的模型。
6.4.3 优势
可直观对比不同模型对同一 “提示词 + 参数” 组合的响应效果,避免单一模型的局限性,适合需要在多个模型中选择最优方案的场景,支持自定义参数和模型。
7. 提示词与模型参数配合的 “进阶技巧”:从 “能用” 到 “好用”
掌握基础方法后,通过进阶技巧能让 “提示词 + 参数” 的配合效果更优,满足更复杂的需求。本节介绍 3 个进阶技巧,帮助新手从 “能用” 提升到 “好用”。
7.1 技巧 1:“参数组合记忆法”:针对固定场景保存参数组合
对于经常使用的固定场景(如 “每周生成产品宣传文案”“每月生成学术摘要”),可将适配的 “提示词模板 + 参数组合” 保存下来,下次使用直接调用,无需重复调整。
7.1.1 操作步骤
- 确定固定场景的核心需求(如 “每周生成 3 条产品宣传文案,风格活泼,包含 2 个核心卖点”);
- 优化提示词并测试参数,找到最佳组合(如提示词模板:“请为 [产品名称] 生成 3 条朋友圈宣传文案,要求:1. 包含 [卖点 1] 和 [卖点 2];2. 风格活泼,适合年轻人;3. 每条 20 字以内;4. 无重复表述”;参数组合:temperature=0.8、max_tokens=200、frequency_penalty=0.7);
- 建立 “场景 - 提示词 - 参数” 对照表,记录场景名称、提示词模板、参数组合(可使用 Excel 或记事本记录);
- 下次使用时,只需在提示词模板中替换 “[产品名称]”“[卖点 1]”“[卖点 2]” 等变量,调用对应的参数组合,即可快速生成符合需求的内容。
7.1.2 示例对照表
场景名称 |
提示词模板 |
参数组合 |
产品朋友圈宣传文案生成 |
请为 [产品名称] 生成 3 条朋友圈宣传文案,要求:1. 包含 [卖点 1] 和 [卖点 2];2. 风格活泼,适合年轻人;3. 每条 20 字以内;4. 无重复表述 |
temperature=0.8、max_tokens=200、frequency_penalty=0.7 |
学术论文摘要生成 |
请为 [论文主题] 生成 300 字论文摘要,要求:1. 包含研究背景、方法、结果、结论;2. 语言严谨,专业术语准确;3. 基于事实,无错误信息 |
temperature=0.2、max_tokens=400、top_p=0.3 |
Python 数据处理代码生成 |
请生成 Python 代码,实现 “读取 [文件路径] 中的 [列名] 列,计算 [统计指标] 并保存到 [输出路径]”,要求:1. 符合 PEP 8 规范;2. 包含异常处理;3. 有详细注释 |
temperature=0.1、max_tokens=500、top_p=0.2 |
7.2 技巧 2:“动态参数调整法”:根据生成进度调整参数
对于长内容生成(如万字报告、小说章节),单次生成难以保证全程质量,可根据 “生成进度” 动态调整参数,让不同部分的内容适配不同参数。
7.2.1 操作步骤
- 将长内容拆分为多个部分(如万字报告拆分为 “引言、核心部分 1、核心部分 2、结论”4 个部分);
- 针对每个部分的需求设置不同参数:
-
- 引言部分:需要 “吸引读者、有一定创意”,设置 temperature=0.6、max_tokens=1000;
-
- 核心部分 1/2:需要 “逻辑严谨、细节详细”,设置 temperature=0.3、max_tokens=3000;
-
- 结论部分:需要 “总结清晰、简洁”,设置 temperature=0.4、max_tokens=800;
- 按顺序生成每个部分:先生成引言(用引言参数),再生成核心部分 1(用核心参数),生成过程中若发现某部分内容不符合需求(如核心部分 1 逻辑混乱),临时微调参数(如将 temperature 从 0.3 改为 0.2);
- 全部生成后,检查各部分之间的连贯性,若存在衔接问题,补充 “过渡提示词”(如 “请生成一段 100 字的过渡内容,连接‘核心部分 1’和‘核心部分 2’,语言正式,逻辑连贯”),设置 temperature=0.4、max_tokens=150,生成过渡内容后插入报告中。
7.2.2 示例(小说章节生成)
- 场景需求:生成 “科幻小说第一章,包含‘场景描写、主角登场、核心冲突引入’三个部分,总字数 2000 字”;
- 动态参数调整:
-
- 场景描写部分:需要 “有画面感、创意”,设置 temperature=0.8、max_tokens=600;
-
- 主角登场部分:需要 “人物特点清晰、逻辑连贯”,设置 temperature=0.5、max_tokens=700;
-
- 核心冲突引入部分:需要 “紧张感、细节详细”,设置 temperature=0.6、max_tokens=800;
- 生成后若发现 “场景描写过于夸张,偏离科幻风格”,下次生成类似部分时,将 temperature 微调为 0.7,保持创意的同时避免过度夸张。
7.3 技巧 3:“反向参数验证法”:用 “错误参数” 验证最佳参数
当不确定某个参数的最佳取值时,可通过设置 “错误参数” 生成内容,对比错误效果和预期效果,反向验证最佳参数,避免盲目试错。
7.3.1 操作步骤
- 确定需要验证的参数(如 temperature)和目标效果(如 “生成严谨的数学公式推导,无错误”);
- 设置 “错误参数”(如 temperature=0.9,高随机性,预期会生成错误推导),生成内容;
- 观察错误效果(如公式推导步骤混乱、符号错误),记录错误点(如 “步骤 2 到步骤 3 的公式变形错误”“使用了未定义的符号”);
- 逐步降低 temperature(如从 0.9 降到 0.7、0.5、0.3),每次生成后对比错误点是否减少;
- 当降低到某一取值(如 temperature=0.2)时,生成的内容无错误、推导严谨,该取值即为最佳参数。
7.3.2 示例(数学公式推导)
- 需求:生成 “勾股定理的推导过程,步骤清晰、公式准确、无错误”;
- 反向参数验证:
-
- 设置错误参数 temperature=0.9,生成内容:推导步骤混乱,将 “a²+b²=c²” 误写为 “a³+b³=c³”,存在符号错误;
-
- 调整为 temperature=0.7,生成内容:步骤较清晰,但某一步公式变形错误(如 “(a+b)² = a²+2ab+b²” 误写为 “(a+b)² = a²+ab+b²”);
-
- 调整为 temperature=0.5,生成内容:步骤清晰,公式变形正确,但部分步骤表述不够详细;
-
- 调整为 temperature=0.2,生成内容:步骤清晰、公式准确、表述详细,无任何错误,确定 temperature=0.2 为最佳参数。
8. 常见问题解答(FAQ):解决新手的高频疑问
在提示词与模型参数配合的过程中,新手可能会遇到各种疑问,本节总结 6 个高频问题,给出详细解答,帮助快速解决困惑。
8.1 问题 1:如果不知道需求对应的参数取值,有没有 “万能参数” 可以使用?
解答:没有绝对的 “万能参数”,但有 “通用参数组合”,适合大多数常规需求(如日常文案、简单问答、通用科普),可作为初始测试参数:
- temperature=0.5(中等随机性,兼顾准确与灵活);
- max_tokens=1000(中等长度,避免截断,适合大多数短到中等篇幅内容);
- top_p=0.5(中等多样性,配合 temperature 使用);
- frequency_penalty=0.5(中等惩罚,减少重复,不影响内容连贯性)。
使用通用参数生成后,再根据输出效果微调(如内容太呆板,提高 temperature;内容太长,降低 max_tokens)。
8.2 问题 2:生成内容时,参数设置正确但仍有错误信息,是提示词的问题还是模型的问题?
解答:先排查提示词,再排查模型,步骤如下:
- 排查提示词:检查提示词是否有 “歧义表述”(如 “生成‘好’的文案”,“好” 的定义不明确)、“信息缺失”(如代码生成提示词未说明 “输入文件格式”);若有,优化提示词后重新生成;
- 排查模型:若提示词无问题,换用另一个模型(如从 ChatGPT 换为文心一言),使用相同的提示词和参数生成;若新模型生成的内容无错误,说明原模型可能存在 “领域知识不足”(如专业医疗内容生成,通用模型可能出错),需换用专业模型;若新模型仍有错误,说明参数仍需调整(如提高 temperature 可能导致错误,需降低)。
8.3 问题 3:max_tokens 设置得越大,生成的内容质量越高吗?
解答:不是。max_tokens 的作用是 “控制内容长度上限”,与 “内容质量” 无直接关系:
- 若需求是 “简短内容”(如 50 字的标题),设置过大的 max_tokens(如 2000),模型会生成大量冗余内容(如重复表述、无关细节),反而降低质量;
- 若需求是 “长篇内容”(如万字报告),设置过小的 max_tokens(如 500),内容会被截断,质量不完整;
- 正确做法:根据需求的 “目标篇幅” 设置 max_tokens,预留 100-200 个 token 避免截断,长度合适的内容才可能有高质量。
8.4 问题 4:temperature 和 top_p 都能控制随机性,什么时候用 temperature,什么时候用 top_p?
解答:根据 “需求侧重点” 选择:
- 若侧重点是 “创意丰富度”(如生成创意故事、广告文案),用 temperature:temperature 调整更灵活,能更好地控制 “创意的夸张程度”(如 temperature=0.9 比 0.7 创意更丰富);
- 若侧重点是 “内容集中度”(如生成多个准确的产品功能描述、事实性问答),用 top_p:top_p 能确保内容从 “高概率词汇” 中选择,避免出现偏离主题的创意,内容更集中;
- 注意:不要同时调整两个参数,选择一个参数调整即可。
8.5 问题 5:生成长篇内容时,分多次生成如何保证各部分逻辑连贯?
解答:分多次生成时,通过 “提示词衔接” 和 “参数统一” 保证逻辑连贯:
- 提示词衔接:每次生成下一部分时,在提示词中加入 “上一部分的核心内容”,让模型知道上下文。比如,第一次生成 “企业培训计划的培训目标”,第二次生成 “培训对象” 时,提示词加入 “上一部分培训目标为‘技术部提升 Vue3 能力、销售部提升沟通技巧’,请生成对应的培训对象,确保与目标匹配”;
- 参数统一:多次生成时,保持核心参数(如 temperature、frequency_penalty)一致,避免参数波动导致内容风格、逻辑差异大。比如,每次生成都设置 temperature=0.4、frequency_penalty=1.2,确保内容逻辑严谨、无重复;
- 最终检查:全部生成后,通读全文,若存在逻辑断层,补充 “过渡提示词” 生成过渡内容,插入断层处。
8.6 问题 6:不同语言的提示词(如中文、英文),参数取值需要调整吗?
解答:需要适当调整,主要原因是不同语言的 “token 占用量” 和 “模型理解敏感度” 不同:
- token 占用量:1 个 token 约等于 0.75 个中文字符,约等于 1 个英文单词,相同字数的中文提示词比英文提示词占用更多 token。比如,500 字中文提示词约占用 667 个 token,500 个英文单词约占用 500 个 token;设置 max_tokens 时,中文提示词需比英文提示词多预留 20%-30% 的 token,避免内容截断;
- 模型理解敏感度:大多数模型对英文的训练数据更多,对英文提示词的理解敏感度更高;对中文提示词,可能需要降低 temperature(如从 0.5 降到 0.4),确保模型准确理解需求,避免出现歧义解读。
示例:生成 “100 字的环保短文”,中文提示词设置 max_tokens=150(100 字约 133 个 token,预留 17 个 token)、temperature=0.4;英文提示词设置 max_tokens=120(100 个英文单词约 100 个 token,预留 20 个 token)、temperature=0.5。
9. 提示词与模型参数配合的未来趋势及应对建议
随着大模型技术的快速发展,提示词与模型参数的配合方式也会逐渐变化。了解未来趋势并提前做好应对,能帮助我们更好地适应技术迭代,持续提升内容生成效率和质量。
9.1 未来趋势
9.1.1 模型 “智能适配” 能力提升,参数调整门槛降低
未来的大模型会更智能,能根据提示词自动推断合适的参数取值,减少人工调整的工作量。比如,当输入 “生成严谨的学术论文摘要” 这类提示词时,模型会自动将 temperature 调整为 0.2-0.3、max_tokens 调整为 400 左右,无需人工设置;当输入 “生成创意广告文案” 时,模型会自动提高 temperature 至 0.8-0.9,降低参数调整的门槛。
9.1.2 “提示词标准化” 加速,配合逻辑更统一
随着大模型应用的普及,行业会逐渐形成 “提示词标准化规范”,明确不同场景下提示词的结构、核心要素和表述方式。按标准化提示词输入时,不同模型对参数的适配逻辑会更统一,比如 “学术类提示词” 对应低 temperature、“创意类提示词” 对应高 temperature,减少因提示词表述差异导致的参数适配问题。
9.1.3 新增 “场景化参数”,功能更精准
现有参数多为通用型(如 temperature、max_tokens),未来会出现更多 “场景化参数”,针对特定场景提供更精准的控制。比如,生成 “多语言文案” 时,会新增 “language_consistency”(语言一致性)参数,控制不同语言版本内容的匹配度;生成 “代码” 时,会新增 “code_compatibility”(代码兼容性)参数,控制代码在不同版本环境中的可运行性。
9.1.4 “提示词 + 参数” 一体化工具普及,操作更便捷
未来会出现更多一体化工具,将 “提示词优化” 和 “参数设置” 整合,用户只需输入简单需求,工具会自动生成优化后的提示词和适配的参数组合。比如,输入 “写一篇小学生环保短文”,工具会自动生成包含 “核心需求、输出要求、目标受众” 的提示词,并匹配 temperature=0.5、max_tokens=800 的参数,直接生成内容。
9.2 应对建议
9.2.1 基础能力:聚焦 “提示词设计”,夯实核心技能
即使模型智能适配能力提升,优质的提示词仍是生成高质量内容的基础。需持续提升提示词设计能力,掌握 “明确核心需求、补充细节、适配场景” 的核心方法,避免过度依赖模型自动适配,确保在复杂场景下仍能通过优质提示词引导模型生成符合预期的内容。
9.2.2 学习习惯:关注技术动态,及时更新认知
定期关注大模型技术的最新动态(如模型更新日志、行业报告),了解新增参数的功能、提示词标准化规范的变化,及时更新对 “提示词 + 参数” 配合逻辑的认知。比如,当模型新增 “场景化参数” 时,快速学习该参数的调节方法,应用到对应场景中,提升内容生成效果。
9.2.3 工具应用:善用一体化工具,提升效率
未来一体化工具普及后,需主动学习工具的使用方法,将工具作为辅助手段,而非替代人工思考。比如,用一体化工具生成初始提示词和参数后,根据具体需求微调,既利用工具提升效率,又通过人工调整保证内容质量,平衡效率与效果。
9.2.4 场景积累:建立 “场景 - 方案” 库,应对变化
针对自身常用场景(如 “电商文案生成”“学术摘要撰写”),建立 “场景 - 提示词 - 参数” 方案库,记录不同场景下的最佳配合方案。当技术趋势变化时,基于现有方案库快速调整,比如模型新增场景化参数时,在原有方案中补充新参数的取值,避免从零开始探索,适应技术变化。
10. 实战练习:快速上手 “提示词 + 参数” 配合
为帮助新手快速掌握 “提示词 + 参数” 的配合方法,本节设计 3 个实战练习,包含 “场景需求、练习步骤、参考方案”,可直接操作练习,巩固所学知识。
10.1 练习 1:事实性问答(查询 “地球自转周期”)
10.1.1 场景需求
生成准确、简短的答案,包含 “地球自转的时间(精确到小时)、自转方向、对地球的影响(2 点)”,输出格式为分点列表。
10.1.2 练习步骤
- 设计提示词:按 “明确核心需求、输出要求” 的逻辑,编写提示词;
- 设置参数:根据 “事实性问答” 场景特点,选择合适的 temperature、max_tokens 等参数;
- 生成内容:将提示词和参数输入模型,生成内容;
- 验证效果:检查内容是否准确、完整、符合输出格式。
10.1.3 参考方案
- 提示词:“请回答以下问题,要求:1. 问题:查询地球自转的周期(精确到小时)、自转方向、对地球的影响(2 点);2. 输出格式:分点列表,每点不超过 30 字;3. 基于事实,无错误信息,语言简洁。”
- 参数:temperature=0.1、max_tokens=200、top_p=0.2、frequency_penalty=0.5;
- 预期输出:
-
- 自转周期:约 24 小时(精确值 23 小时 56 分 4 秒);
-
- 自转方向:自西向东(从北极上空看呈逆时针);
-
- 对地球影响 1:形成昼夜交替现象,区分白天与黑夜;
-
- 对地球影响 2:产生地转偏向力,影响气流和洋流方向。
10.2 练习 2:创意文案生成(为 “便携充电宝” 写 3 条小红书文案)
10.2.1 场景需求
生成活泼、有吸引力的小红书文案,包含 “便携(可放口袋)、快充(30 分钟充 50%)、高颜值(马卡龙色)”3 个卖点,每条文案带 1 个相关话题标签(如 #便携充电宝)。
10.2.2 练习步骤
- 设计提示词:明确 “产品卖点、风格、输出格式、话题标签”;
- 设置参数:根据 “创意文案” 场景特点,选择高 temperature、合适的 max_tokens;
- 生成内容:输入提示词和参数,生成 3 条文案;
- 验证效果:检查文案是否包含所有卖点、风格是否活泼、标签是否相关。
10.2.3 参考方案
- 提示词:“请为‘便携充电宝’生成 3 条小红书文案,要求:1. 包含卖点:便携(可放口袋)、快充(30 分钟充 50%)、高颜值(马卡龙色);2. 风格活泼,适合年轻女性,每条 25 字以内;3. 每条带 1 个相关话题标签;4. 无重复表述,突出使用场景(如通勤、出差)。”
- 参数:temperature=0.8、max_tokens=300、frequency_penalty=0.7、top_p=0.9;
- 预期输出:
-
- 通勤党狂喜!马卡龙充电宝能放口袋,30 分钟充 50%~# 便携充电宝;
-
- 出差必带!高颜值马卡龙充电宝,快充又小巧,再也不怕手机没电~# 出差好物;
-
- 女生都爱!马卡龙色充电宝超便携,30 分钟回血 50%,颜值实力在线~# 高颜值充电宝。
10.3 练习 3:代码生成(Python 读取 Excel 文件并计算平均值)
10.3.1 场景需求
生成 Python 代码,实现 “读取 Excel 文件(路径为‘scores.xlsx’)中‘数学成绩’列,计算该列的平均分(保留 1 位小数),并打印结果”,要求有详细注释、包含异常处理(如文件不存在、列不存在)。
10.3.2 练习步骤
- 设计提示词:明确 “功能需求、代码规范、异常处理要求”;
- 设置参数:根据 “代码生成” 场景特点,选择低 temperature、合适的 max_tokens;
- 生成代码:输入提示词和参数,生成代码;
- 验证效果:检查代码是否可运行、是否包含异常处理、注释是否详细。
10.3.3 参考方案
- 提示词:“请生成 Python 代码,实现以下功能,要求:1. 功能:读取 Excel 文件(路径‘scores.xlsx’)中‘数学成绩’列,计算平均分(保留 1 位小数)并打印;2. 代码规范:符合 PEP 8 规范,有详细注释(每步功能说明);3. 异常处理:包含‘文件不存在’‘列不存在’‘数据无法转换为数值’的错误提示;4. 使用 pandas 库,避免过时函数。”
- 参数:temperature=0.1、max_tokens=600、top_p=0.2、frequency_penalty=0.5;
- 预期输出:
# 导入pandas库,用于读取Excel文件(需提前安装:pip install pandas openpyxl)
import pandas as pd
import os
def calculate_math_average(file_path):
"""
计算Excel文件中“数学成绩”列的平均分
参数:file_path - Excel文件路径(字符串)
返回:无,直接打印平均分或错误提示
"""
# 异常处理1:检查文件是否存在
if not os.path.exists(file_path):
print(f"错误:文件不存在,请检查路径是否正确:{file_path}")
return
try:
# 读取Excel文件,使用openpyxl引擎(支持.xlsx格式)
df = pd.read_excel(file_path, engine="openpyxl")
# 异常处理2:检查“数学成绩”列是否存在
if "数学成绩" not in df.columns:
print("错误:Excel文件中未找到“数学成绩”列,请检查列名")
return
# 异常处理3:将“数学成绩”列转换为数值类型,无法转换的值设为NaN
df["数学成绩"] = pd.to_numeric(df["数学成绩"], errors="coerce")
# 去除包含NaN的行(避免影响平均分计算)
df_clean = df.dropna(subset=["数学成绩"])
# 检查清洗后的数据是否为空
if df_clean.empty:
print("错误:“数学成绩”列中无有效数值数据,无法计算平均分")
return
# 计算平均分,保留1位小数
average_score = round(df_clean["数学成绩"].mean(), 1)
# 打印结果
print(f"数学成绩平均分:{average_score}")
except Exception as e:
# 捕获其他未知错误(如文件格式错误)
print(f"错误:读取或计算过程中出现异常,原因:{str(e)}")
# 调用函数,传入Excel文件路径
calculate_math_average("scores.xlsx")
10.4 练习效果复盘:总结关键要点
完成上述 3 个实战练习后,需通过复盘巩固 “提示词 + 参数” 配合的核心逻辑,避免下次使用时重复踩坑。复盘可围绕以下 4 个问题展开:
10.4.1 问题 1:提示词设计时,哪些细节最容易影响生成效果?
- 关键结论:“明确输出格式” 和 “补充核心细节” 是最容易被忽视但影响最大的细节。比如,练习 1 中若未明确 “分点列表” 格式,模型可能用段落输出,导致答案不清晰;练习 3 中若未补充 “异常处理要求”,模型生成的代码可能因文件不存在而报错。
- 改进建议:后续设计提示词时,无论需求是否简单,都需在提示词中明确 “输出格式”(如列表、段落、代码块)和 “核心细节”(如数据精度、错误处理、风格关键词)。
10.4.2 问题 2:参数设置时,如何快速判断 “取值是否合理”?
- 关键结论:“结合需求关键词匹配参数” 是快速判断的核心方法。比如,需求包含 “准确、固定” 关键词,temperature 取 0.1-0.3 合理;包含 “创意、多样” 关键词,temperature 取 0.7-1.0 合理;若取值与关键词不匹配(如 “准确” 需求用 temperature=0.9),生成效果必然差。
- 改进建议:设置参数前,先在提示词中圈出需求关键词(如 “准确”“创意”“简短”“长篇”),再根据关键词匹配参数取值,避免盲目设置。
10.4.3 问题 3:生成效果不符合预期时,优先调整提示词还是参数?
- 关键结论:优先调整提示词,再调整参数。比如,练习 2 中若生成的文案未包含 “便携” 卖点,优先检查提示词是否明确 “必须包含 3 个卖点”,而非直接调整 temperature;若提示词无问题,但文案风格太呆板,再调整 temperature 从 0.5 到 0.8。
- 改进建议:建立 “提示词优先” 的调整逻辑,每次生成效果不佳时,先排查提示词的 “模糊表述”“信息缺失”,优化后再测试;若提示词无问题,再单次调整 1 个参数,对比效果。
10.4.4 问题 4:不同场景下,“提示词 + 参数” 配合的共通逻辑是什么?
- 关键结论:共通逻辑是 “提示词明确需求边界,参数优化输出属性”。比如,练习 1(事实性问答)中,提示词明确 “答案包含 3 个信息点 + 分点格式”(需求边界),参数设置低 temperature(优化 “准确” 属性);练习 3(代码生成)中,提示词明确 “功能 + 异常处理 + 规范”(需求边界),参数设置低 temperature(优化 “可运行” 属性)。
- 改进建议:无论何种场景,都按 “先明确需求边界(提示词),再优化输出属性(参数)” 的逻辑配合,形成固定思维习惯。
11. 提示词与参数配合的常见误区补充:新手易踩的 “隐藏坑”
除了前面提到的 5 个常见错误,还有一些 “隐藏坑” 容易被新手忽视,导致生成效果不佳。本节补充 3 个隐藏误区,帮助新手全面避坑。
11.1 误区 1:提示词中 “包含过多需求”,导致参数无法适配
11.1.1 错误表现
在一个提示词中包含 “矛盾需求” 或 “过多需求”,比如 “生成一篇既准确严谨又创意十足的学术论文摘要”,既要求 “准确严谨”(需低 temperature),又要求 “创意十足”(需高 temperature),参数无法同时适配,生成的内容要么不严谨,要么无创意。
11.1.2 错误原因
忽视 “需求的一致性”,将矛盾或过多的需求混在一个提示词中,导致参数取值陷入 “两难”—— 无论如何设置参数,都无法满足所有需求。
11.1.3 解决方法
- 拆分矛盾需求:将 “矛盾需求” 拆分为多个提示词,分多次生成。比如,先按 “准确严谨” 需求生成学术摘要(temperature=0.2),再单独生成 “创意引言”(temperature=0.8),最后将两部分整合;
- 优先级排序:若需求过多,按 “核心需求> 次要需求” 排序,提示词中只保留核心需求,参数适配核心需求。比如,“生成一篇 1000 字的环保短文,既包含 3 个案例,又有数据支撑,还要创意标题”,核心需求是 “3 个案例 + 数据支撑”,提示词中明确这两点,参数设置中 temperature=0.5(适配 “准确”),标题的 “创意” 作为次要需求,后续单独优化。
11.2 误区 2:参数 “取值相同” 就认为 “效果相同”,忽视模型差异
11.2.1 错误表现
在 ChatGPT 中设置 “temperature=0.7” 生成的创意文案效果好,将相同的 temperature=0.7 用到文心一言中,却发现文案创意不足,误以为是参数设置错误,反复调整参数,却不知道是模型差异导致。
11.2.2 错误原因
忽视不同模型的 “参数敏感度” 差异:比如,文心一言对 temperature 的敏感度可能高于 ChatGPT,同样是 temperature=0.7,文心一言的随机性可能相当于 ChatGPT 的 0.5,导致效果不同。
11.2.3 解决方法
- 查看模型 “参数敏感度说明”:使用新模型前,在官方文档中查找 “参数敏感度” 相关内容(如 “本模型 temperature 取值 0.5-0.6 对应中等随机性”),了解模型对参数的响应特点;
- 小范围测试适配:初次使用新模型时,用简单需求(如 “生成 2 个创意标题”)进行小范围测试,设置不同参数取值(如 temperature=0.5、0.7、0.9),记录哪个取值符合预期,后续同类需求复用该取值。
11.3 误区 3:生成长篇内容时,“单次生成” 而非 “分阶段配合”
11.3.1 错误表现
生成长篇内容(如万字报告)时,试图用 “一个提示词 + 一次参数设置” 生成完整内容,结果要么内容被截断(max_tokens 不足),要么逻辑混乱(模型难以长时间保持连贯),要么重复度高(frequency_penalty 无法全程生效)。
11.3.2 错误原因
忽视 “模型的上下文理解上限”:即使 max_tokens 设置足够(如 4000),模型对长篇内容的逻辑连贯性、细节把控能力也会下降,单次生成难以保证质量。
11.3.3 解决方法
- 分阶段拆分内容:将长篇内容拆分为 “引言、核心部分 1、核心部分 2、结论” 等阶段,每个阶段单独设计提示词和参数;
- 阶段间 “上下文衔接”:生成下一个阶段时,在提示词中加入 “上一阶段核心内容”,比如生成 “核心部分 2” 时,提示词加入 “上一阶段核心部分 1 介绍了 XX,本部分继续介绍 XX”,确保逻辑连贯;
- 统一核心参数:不同阶段保持核心参数(如 temperature、frequency_penalty)一致,避免风格、逻辑差异过大。比如,全部分阶段都设置 temperature=0.4、frequency_penalty=1.2,确保整体内容风格统一。
12. 总结与实践建议(注:根据要求删除文末总结部分,此处仅为结构标识,实际发布时需删除)
本文从基础概念、常用参数、配合原则、实战案例、工具推荐、进阶技巧、常见误区等方面,全面讲解了提示词与模型参数的配合使用方法。对新手而言,最重要的是 “先掌握基础逻辑,再通过实战积累经验”—— 先按 “提示词明确需求边界,参数优化输出属性” 的逻辑编写提示词和设置参数,再通过 3-5 次实战练习(如事实性问答、创意文案、代码生成),熟悉不同场景的配合技巧,形成自己的 “场景 - 方案” 库。
后续使用过程中,可定期回顾本文中的 “常见误区” 和 “复盘要点”,避免重复踩坑;同时关注大模型技术的最新动态,及时适配新参数、新工具,持续提升 “提示词 + 参数” 的配合能力,让大模型更好地服务于工作和学习。
更多推荐
所有评论(0)