我们来看两个事情,一个是关于大模型推理能力提升的一个技术总结,一个是应用大模型进行落地的6个误区。

这些都是一个既定的陈述,是一些总结性的观点,仔细品品,对照现实,是很有意义的。

专题化,体系化,会有更多深度思考。大家一起加油。

一、应用大模型进行落地的6个误区

在构建生成式AI应用时常见的陷阱,并通过具体的例子和经验分享来说明这些陷阱及其影响,https://huyenchip.com/2025/01/16/ai-engineering-pitfalls.html,虽然讲大道理,但还是再呼应一下

其一,在不需要的情况下使用生成式AI。生成式AI的能力似乎无穷无尽,导致人们倾向于将其用于所有场景。 例如,一个团队试图使用生成式AI优化家庭能源消耗,但最终发现简单的贪婪调度方法可能更有效。建议确保在需要生成式AI的情况下才使用它,避免过度依赖。

其二,将“坏产品”与“坏AI”混淆。许多团队因为用户不喜欢他们的产品而放弃生成式AI,但实际上问题在于产品设计而非AI本身。 例如,一个会议摘要应用最初关注于摘要长度,但用户更关心具体的行动项;LinkedIn的聊天机器人被用户认为不够有帮助。建议用户体验(UX)是关键,确保产品设计和用户工作流程的无缝集成。

其三,过于复杂地开始。过早引入复杂的工具和技术可能导致系统难以理解和调试。 例如,使用代理框架而不是直接API调用,选择向量数据库而不是简单的基于术语的检索解决方案。建议在项目初期应选择简单的方法,避免不必要的复杂性。

其四,过分依赖早期成功,初始的成功可能会让人低估改进产品的难度。 例如,LinkedIn花了1个月达到80%的用户体验目标,但再提高1%却花了4个月。建议在规划产品里程碑和资源时,要考虑到后续改进的挑战。

其五,忽视人工评估,许多团队依赖AI模型来评估AI输出,而忽视了人工评估。 例如,AI来做评估器的质量取决于其模型、提示和使用场景,不恰当的开发可能导致误导性的评估。建议结合人工评估来验证和改进AI模型的性能。

其六,采用众包用例,在没有整体策略的情况下,企业可能会盲目实施众包的想法,导致低影响力的应用。 例如,企业尝试实现各种想法,结果是一系列小规模的应用。建议制定大战略以最大化投资回报率。

二、关于大模型推理能力提升的一个技术总结

这其实是属于o1专题,大模型推理的范畴。这个方向上,目前主流方式是引入“cot”,即引入代表推理过程中间步骤的一系列标记,使LLMs能够模仿复杂的人类推理过程,如树搜索和反思性思维。

最开始,大家发现,在测试时推理过程中鼓励大模型使用更多标记进行“思考”,可以进一步提高推理准确性

后面openai-o1 出来之后,大家有发现,可以应用强化学习(RL)来训练LLMs掌握推理过程,这种方法通过试错搜索算法自动生成高质量的推理轨迹,通过提供大量更多的训练数据显著扩展了LLMs的推理能力

《Towards Large Reasoning Models: A Survey of Reinforced Reasoning with Large Language Models》(https://arxiv.org/pdf/2501.09686v1),这个工作读了一遍,很不错,总结大模型推理能力的最新进展,强调了“思考”概念的引入、强化学习的应用、测试时扩展的潜力、过程奖励模型的作用以及高质量推理数据的重要性,还提到了目前大模型进行推理的一些标准Benchmark:

我们可以看几个点。

1、大模型推理能力学习的几个阶段

实际上,如果我们把大模型推理能力学习这个目铺开的话,目前大模型这块已经变成了以下几个路径。

一个是预训练Pre-trianing,LLMs的预训练阶段通过大规模文本语料库进行训练,获得核心语言知识和世界知识。富含代码和数学内容的数据集是发展强大推理技能的关键基础。

一个是微调Fine-tuning,微调技术用于实现零样本推理能力和改进推理能力,通过多样化的指令数据集进行训练。与预训练不同,微调专门计算答案的损失,通常忽略问题的损失。纳入包含思维链(CoT)推理和数学问题解决示例的数据集已被证明能显著提升大型语言模型的推理能力。 通过明确训练模型在得出答案之前生成中间推理步骤。借助基于CoT的SFT,大模型被鼓励明确生成中间推理步骤,从而增强其处理需要更结构化、有组织思维的任务的推理能力。这种方案实际上是提高了它们的可解释性,并通过生成更透明、逐步的思维过程,减少了复杂决策场景中的错误。

但是,SFT严重依赖于高质量的标记数据集,这些数据集的收集可能既昂贵又耗时,特别是对于那些需要专家注释的小众领域或任务。SFT可能导致灾难性遗忘,即在微调过程中模型丢失了一些预训练的通用知识,减少其在微调领域之外的任务推理效用。即使采用参数高效的方法,微调大规模模型的计算成本仍然可能很,这对资源有限的组织构成了挑战。

一个是对齐Alignment,使用强化学习从人类反馈中进行数据构建和模型训练,以提高模型的安全性和可控性。与SFT(自监督微调)阶段相比,这一阶段通常会整合大量精心策划、手动标记的排序数据,以准确反映人类偏好,这些数据不仅包括正确的示范,还包括应当避免的不良案例。由于标准RLHF对高数据需求和训练成本的需求,提出了像直接偏好优化(DPO)方法来减少对显式奖励模型的依赖。在DPO中,偏好损失被定义为一个策略函数,直接指导模型优化。鉴于推理问题的多步骤性质和复杂性,基于对齐的后训练已成为激发LLMs推理能力的最后且最关键的一步。通过仔细分解推理过程并逐步向模型反馈信号,基于强化学习和偏好学习的各种自训练方法已经取得了显著的成功。

一个是提示LLMs进行高级推理Prompting LLMs for Advanced Reasoning:通过多种提示技术增强LLMs的推理能力,如逐步推理、多路径探索和解构方法。

其中:

逐步推理方中简单的提示,如“让我们一步步思考”,也能有效指导推理过程,自我一致性生成多个推理路径以得出更可靠的结论;

多路径探索方法考虑多个可能的解决方案路径。思维树(Tree of Thoughts)以树状结构组织替代推理路径,使得能够系统地探索不同的解决策略。思维图(Graph of Thoughts)将其推广到图形结构,允许更灵活的推理模式和回溯能力。反应式思维(ReAct)通过将推理与行动步骤交织在一起,丰富了这一范式,使其能够与外部环境进行更动态的互动。

对于复杂问题,基于分解的方法已被证明特别有效。Least-to-Most Prompting和Algorithm of Thoughts系统地将复杂问题分解为可管理的组成部分,Plan-and-Solve为解决这些子问题提供了指导,这类方法在处理需要多步骤或不同分析层次的任务时特别有价值。

例如使用过程奖励模型(PRM)和结果奖励模型(ORM)来提高多步推理能力。或者在测试时使用PRM进一步提高模型的推理能力,采用多数投票、树搜索和束搜索等方法。

这里可以再展开来说,如图3所示,红色空心圆圈代表在推理阶段的算法探索过程中被丢弃的推理路径,绿色空心圆圈表示在探索过程中采用的推理路径,而绿色实心圆圈标记一旦正确答案被识别出推理路径的终点

因此,怎么拿到这个准确路径,方案就显得很有趣。

多数投票是从密集的测试时计算中生成最终答案最直接的一种策略。在推理过程中,每个推理轨迹对给定输入产生一个预测。基本思想是选择大多数推理轨迹都符合的答案,然后,所有模型的预测结果被汇总起来,出现次数最多的类别(即“多数投票”)被选为最终输出。

树搜索通过递归构建搜索树系统地探索不同选择,常用于复杂的决策问题,例如棋类游戏和规划任务。蒙特卡洛树搜索(MCTS)是最广泛使用的树搜索方法之一,包括四个主要步骤:选择、扩展、模拟和反向传播。通过逐步扩展搜索空间,MCTS逐步改进决策。

束搜索是一种改进版的贪婪搜索,通常用于生成任务中选择最优输出序列。其主要思想是在每个时间步骤保留所有候选路径中得分最高的K条路径(称为束),以便进一步扩展。与贪婪搜索不同,束搜索保持多条候选路径,从而扩展了搜索空间并提高了生成质量。

一个是代理工作流Agentic Workflow:设计代理工作流以增强LLMs的推理能力,通常需要更多的测试时计算资源。这里的优势在于,代理工作流程允许在不需要任何额外训练的情况下提高大模型的推理能力,但它通常需要更多的测试时间计算。 例如,上下文学习通过简单地提供一些上下文演示来提高大模型针对特定任务的性能,使其能够泛化到未见过的难题,这里的逻辑很有趣,上下文学习是通过让大模型捕捉标签空间、输入文本的分布以及期望的答案格式,从而提高了它们的性能。

2、关于推理阶段的训练数据构建方式

大家有种很明显的感觉,缺乏训练数据是核心问题。人工标注通常非常昂贵,特别是对于那些已被证明在监督大型语言模型推理方面有效的逐步推理轨迹,也就是说,提升大型语言模型的推理能力需要过程监督,即人类注释者指导推理过程的每一个步骤。在复杂的推理任务中,模型的每一个输出步骤都可能显著影响最终结果,因此标记中间决策为“正确”、“错误”或赋予一个中间奖励(即过程注释)至关重要

为了解决这个问题,最近的研究已从人工标注转向由大模型驱动的搜索算法。这些方法利用外部验证来处理推理问题,并通过试错搜索自动生成准确的推理轨迹。

例如,人工标注在构建数据集中不可或缺,但成本高昂且难以扩展,但通过LLM进行数据标注提供了一种更具成本效益的替代方案,但仍面临验证挑战。

所以,也是解决这个验证的问题,最近又新起了一个叫做过程标注的工作,自动化方法用于标注推理过程中的中间步骤,包括使用更强大的LLM、蒙特卡罗模拟和蒙特卡罗树搜索等方法

所以就有了以下方案,利用大模型加速过程的同时保持人类生成标注的高质量。

分成预标注阶段和和精细化阶段。在预标注阶段,利用大模型进行初步的注释工作,通过利用少量人工提供的示例来快速高效地设置。在精细化阶段,人工标注人员可以评估LLM生成的标注质量,并专注于仅纠正质量不佳的标注子集。所以,这个有一个趋势,如何在确保数据质量的同时最大化自动化,从而减少人力投入而不影响注释的准确性

所以更进一步的,可以有几种方式:

一个是使用更强大的大模型进行标注,比如都喜欢蒸馏GPT4O这类模型,但这种方法的主要局限性在于其依赖于高度能力的外部模型,这意味着标注过程的性能最终受到所使用外部模型能力的限制。

一种是通过蒙特卡罗模拟进行标注,使用外部模型从给定的中间输出继续推理几个步骤,并随机重复这个模拟过程多次。然后基于这些扩展推理的平均结果来评估中间步骤的质量。

一种是通过树搜索模拟进行标注。用蒙特卡罗树搜索(MCTS)策略代替了重复的蒙特卡罗模拟。在这种改进的方法中,使用MCTS从中间步骤生成多个代表最终推理结果的叶节点。然后基于这些叶节点的平均结果评估中间步骤的质量。与随机重复推理相比,MCTS利用树搜索提高了推理质量,同时也允许叶节点共享高质量父节点,减少了计算开销并提高了效率

一种是通过获得的过程标注来训练一个过程奖励函数(PRM),然后使用精炼后的LLM重复基于MCTS的模拟,生成更高质量的标注

总结

本文主要介绍了两个事情,一个是关于大模型推理能力提升的一个技术总结,一个是应用大模型进行落地的6个误区,这两个事情都是当下在技术以及落地反思上的一些经验。

如何学习AI大模型 ?

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】🆓

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈

(👆👆👆安全链接,放心点击)

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

👉1.大模型入门学习思维导图👈

要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。

对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)
在这里插入图片描述

👉2.AGI大模型配套视频👈

很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。

在这里插入图片描述
在这里插入图片描述

👉3.大模型实际应用报告合集👈

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)

在这里插入图片描述

👉4.大模型落地应用案例PPT👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。(全套教程文末领取哈)

在这里插入图片描述

👉5.大模型经典学习电子书👈

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。(全套教程文末领取哈)
img

在这里插入图片描述

👉6.大模型面试题&答案👈

截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。(全套教程文末领取哈)

在这里插入图片描述
👉学会后的收获:👈
基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈

(👆👆👆安全链接,放心点击)
Logo

在这里,我们一起交流AI,学习AI,用AI改变世界。如有AI产品需求,可访问讯飞开放平台,www.xfyun.cn。

更多推荐