在这里插入图片描述

01.论文概述

光子神经网络(PNN)作为具有高速传播特性和高带宽特性的新型范式,旨在通过更高效率和更低成本实现可复现的神经网络加速。然而,PNN训练因器件间差异和系统间差异导致的网络状态认知偏差而极具挑战性。尽管基于反向传播(BP)的训练算法凭借其鲁棒性、通用性和快速梯度收敛特性,已成为数字训练领域的行业标准,但现有PNN-BP方法仍严重依赖精确的中间状态提取,且训练深度光子神经网络(DPNN)时需消耗大量计算资源。光子信号传播的截断特性和计算开销问题制约了DPNN的运行效率,并增加了系统构建成本。本文提出专为封装式DPNN设计的非对称训练(AsyT)方法,通过在全网络结构保持信号在模拟光子域的传输特性,实现了以下突破:为DPNN提供仅需最少读出的轻量化解决方案,具备快速能效优化的操作特性,并显著降低系统占位面积。AsyT方法的易操作性、误差容限和通用性优势,有望推动光子神经网络在存在制造偏差和控制误差的扩展应用场景中实现加速突破。我们通过集成光子芯片验证了AsyT在封装式DPNN中的应用效果,相较于硅基反向传播方法,该方法在不同网络结构和数据集上均展现出稳定增强的性能表现。

02.图文速览

图 1:非对称训练(AsyT)方法的概念示意图
Fig. 1

a AsyT 仅需要输出层的神经元信息,从而允许物理信息在整个 DPNN 结构中持续传播。对于 IP-BP 方法,模拟信息传播在每个隐藏层都被截断,未能充分利用快速 PNN 处理的优势。此外,对于 IP-BP 方法,引入的 AD 接口瓶颈时间按 (O\left(2M-P\right)) 规模增长,而对于 AsyT 则为 (O\left(P\right))。b 与接口相比,仅在模拟域或数字域内进行计算得到了优化。AsyT 利用额外的数字并行通道来避免接口处的信息流量,同时弥补了物理信息访问次数较少的不足。c 使用 AsyT 方法的工作流程。AsyT 利用了数字并行模型的前向和反向传播。数字模型的操作对于一组统计上变化的 PNN 是通用的,对于一个任务仅需进行一次计算,从而降低了分布式开销(见“讨论”部分)。

图2:非对称训练(AsyT)方法在全封装深度光子神经网络(DPNN)训练中的实验结果
Fig. 2

a. 完全封装的深度光神经网络(DPNN)原理图,其中模拟信号在整个深度网络结构中得以保留,仅在输出层读取。b. 展示完全封装的 DPNN 的实验装置。使用两个独立的光子集成电路(PIC)设备来表示深度神经元的连接性。黄色箭头表示光信号的传播。c. PIC 的封装,展示了引线键合加热器和与光纤阵列的边缘耦合。d. PIC 设备的照片,放大了累加器、分路器和 MZI 单元的组件。原理图见补充说明 4。e. 完全封装的 DPNN 的训练结果。AsyT(深蓝色线:AsyT 训练;橙色线:AsyT 测试)的性能相比基于硅的反向传播(淡蓝色线)有显著提升。f. 基于 MZI 单元响应的理论估计的估计曲线,显示了估计曲线(浅蓝色线)与 MZI 单元的实际传输行为(背景中的淡灰色线)之间的巨大差异。PPM 物理处理模块。

图3:基于Iris数据集的非对称训练(AsyT)方法性能与分析

Fig. 3

a AsyT(深蓝色线:训练;橙色线:测试)、伪 IP-BP(红色线)和计算机模拟 BP(淡蓝色线)的训练结果。AsyT 在训练和测试中均接近理想 BP 的最大性能。另一方面,计算机模拟 BP 和伪 IP-BP 的性能有所下降。b AsyT 方法测试数据的混淆矩阵。c AsyT 在训练早期迅速减小对齐角度差,并在后续周期中保持该值。d 通过三个额外的估计轮廓进行重复实验,表明 AsyT 方法能够推广到不同的估计轮廓。所有三个估计轮廓均达到 96%的训练准确率。

图4:非对称训练(AsyT)方法在扩展型深度光子神经网络(DPNN)中的应用

Fig. 4

a 扩展后的 DPNN 系统示意图,其中可以使用 PPM 的空间或时间副本来构建维度高于硬件维度的隐藏层。每个 PPM 表示都会进一步累积误差。在训练过程中,AsyT 仅需要输出神经元的信息,并将多个 PPM 集体视为一个更大尺寸的 PPM。b AsyT 不受误差累积的影响,实现了接近理想的反向传播性能,而基于计算机的反向传播则退化为随机猜测。c AsyT 对手写数字测试数据的混淆矩阵。

图5:非对称训练(AsyT)方法性能的可重复性

Fig. 5

a-c:使用 AsyT 方法对 MNIST、FMNIST 和 KMNIST 三个数据集进行 PNN 训练。在所有三种情况下,测试准确率都显著高于基于模拟 BP 的准确率(灰色线)。d:AsyT(蓝色线)在不同信息失配水平下接受压力测试,其中标准化失真基于实验水平误差定义。e:AsyT(蓝色线)在隐藏层不同神经元数量下表现良好,与理想 BP 最大值(灰色线)的差异保持在 2%以下。f:对于不同网络规模,AsyT 的性能(蓝色线)能将测试准确率与无误差 BP 最大值(灰色线)的差异保持在 2.5%以下。g:AsyT(蓝色线)在数字并行模型中的前向传播保护训练免受意外强干扰。由于可微模型描述的不匹配,PAT(橙色线)性能下降。h:对于非常嘈杂的物理系统,AsyT(蓝色线)并行模型的数字更新不受影响(橙色线:PAT)。因此,赋予系统抗噪声能力。

图6:面向可复现深度光子神经网络(DPNN)的非对称训练(AsyT)方法高效训练

Fig. 6

a 截断型 PNN 的访问点数量按 (O\left(2M-P\right)) 规模增长(红色线),其中 ({T}{{{\mbox{extract}}}}) 由特定模型的复杂度决定。相比之下,AsyT 封装型 PNN 结构的访问点由任务决定,而非模型复杂度(({P} , < , \left(2M-P\right)))(蓝色线)。b 由于层间传播的顺序性,截断型 PNN 的访问时间步长(橙色线)与网络深度相关,而封装型 PNN(蓝色线)不受影响(此假设基于 ({T}{{{\mbox{prop}}}}\ll {T}_{{{\mbox{interface}}}}),见补充说明 10)。c 通过将通用并行模型重新应用于 PNN 设备的不同副本,计算开销得以分散并降低到每个设备副本上。这使得计算开销与标准 BP 相当,同时又不牺牲封装构建的能力。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐