本周早些时候,我写了一篇关于苹果上周发表的一项引人入胜的研究的文章,内容涉及我们对大型推理人工智能模型 (LRM) 如何“思考”(或不思考)的了解。

在此处查看研究背景故事(第 1 部分):

认知负荷和人工智能:为什么“思考”模型会碰壁

认知负荷、思维链、大型推理模型、苹果人工智能研究

medium.com

第 1 部分的关键见解:

导致学生在面对具有挑战性的内容时在课堂上“关闭”的认知负荷限制也可能解释为什么 LRM“思维”模型在中等到困难的难题上崩溃。

我与认知负荷理论进行了类比,并思考我们是否可以借鉴教育中的见解来帮助提示工程师和人工智能用户提高他们的工作效率。

降低 AI 合作伙伴认知负荷的方法(第 2 部分,共 2 部分)

如果您不小心,您的人工智能模型可能会被其任务的复杂性所淹没。我们将一项活动的“心理”负荷的总和称为认知负荷,为学生管理这种复杂性是任何课堂教育工作者的关键责任。我相信这个类比也适用于人工智能。

我想花点时间列出一些提示工程原则,我将这些原则作为思维伙伴(而不是内容生成器)融入到我自己的工作中。

让我们避免两个问题:

  1. 针对任务复杂性进行过度调整的人工智能很容易出现过度思考的错误。 在苹果的研究中,强大的推理模型几乎会立即得出正确答案,然后“浪费”大量时间探索这是否真的是正确答案。另一方面,“普通”法学硕士不太容易受到这种错误的影响。作为这种伙伴关系中的人类驱动者,您需要充分了解情况,以识别何时出现正确答案,这样您就不会浪费人工智能的时间和精力(=金钱)。
  2. 针对问题复杂性调整不足的人工智能将碰壁并崩溃。在苹果的研究中,随着最好的“推理”模型与日益增加的复杂性作斗争,它们触底反弹——既没有提供新的见解,甚至没有“费心”将代币花在“思考”上。这就是我所说的认知超负荷,也是以下提示试图避免的。

按 Enter 键或单击以查看大图

墙上的标志,深棕色背景上的白色字体。它说“伟大的头脑都想得太多”。

照片由乔恩·泰森Unsplash上拍摄

在解决更困难的问题时,请尝试以下提示提示:

结构提示有效,同时降低问题复杂性:

  • 去除无关的认知权重。避免编写超长提示或提供不必要的填充信息。在项目工作的初始启动查询中要有意识。
  • 结构说明清晰。使用编号步骤,给出简单的例子,提供答案模式(但这里要小心——人工智能模型往往会抓住你向他们提供的内容,并(拟人化地说话)试图“取悦你”。
  • 如果可能的话,使用抽象和符号来描述所需的解决方案——请参阅 Apple 论文末尾的示例,了解一些优秀的模型。
  • 清楚地提示人工智能应该将注意力放在哪里。同样,这要求您对问题和解决方案有足够的认识,以便对从哪里开始或下一步处理什么有一个知情的预感。开始阅读!
  • 考虑上传文档、规划图和其他视觉或书面辅助工具,并要求人工智能经常参考它们。注意“漂移”,并将 AI 召回核心目标或约束。

在 AI 会话之前进行更多人工预先规划:

  • 将大项目和问题分解为一系列较小的问题。我在办公室里放了一块 2 英尺 x 3 英尺的白板,正是为了这种工作。(如果您以后需要收回空间,很容易拍摄照片作为记录。
  • 使用软件内置的工具——例如,OpenAI 现在已经创建了一个“项目”文件夹,它应该允许人工智能模型“记住”一组相关的对话。它并不完美,但很有帮助。
  • 将尽可能多的“偏好”(例如,您想要健谈的 AI 还是简洁的回答)移动到软件的设置中,您可以在其中定义 AI 在回答您时将始终使用的自定义信息。这就像向您的人工智能私下介绍您希望如何构建答案一样。这使您能够从任何初始提示中删除这些事实。
  • 随着对话时间的延长,人工智能模型在连贯性和高质量的解决方案方面越来越困难。如果您正在进行长期讨论,请考虑要求 AI 总结要点并将其复制到同一主题的新线程的开头。
  • 就像教师必须观察和应对个别学生的认知优势和劣势一样,你也会了解人工智能的能力和规模——然后你需要发挥它的优势并了解它导致崩溃的怪癖。
  • 将 AI 会话与你自己在纸上、白板或便签上的工作交错。没有什么可以取代您独特的经验、知识、技能和专业知识。
Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐