论文网址:BrainMass: Advancing Brain Network Analysis for Diagnosis With Large-Scale Self-Supervised Learning | IEEE Journals & Magazine | IEEE Xplore

论文代码:https://github.com/podismine/BrainMass

目录

1. 心得

2. 论文逐段精读

2.1. Abstract

2.2. Introduction

2.3. Related Works

2.3.1. Brain Network Study

2.3.2. Self-Supervised Learning

2.4. Method

2.4.1. Preliminaries

2.4.2. Pseudo Functional Connectivity Augmentation

2.4.3. Brain Network Transformer Encoder

2.4.4. Masked ROI Modelling

2.4.5. Latent Representation Alignment

2.4.5. Optimization

2.5. Experiments

2.5.1. Datasets

2.5.2. Evaluation

2.5.3. Data Preprocessing

2.5.4. Implementation Details

2.5.5. Metrics

2.6. Results

2.6.1. Brain Disorder Diagnosis Performance

2.6.2. Sensitive Analysis and Ablation Studies

2.6.3. Generalizability and Few/Zero-Shot Evaluation

2.6.4. Biological Explanation

2.7. Discussion

2.8. Conclusion

1. 心得

(1)我受不了了,我刚学这领域就看的这一作的论文怎么现在还在看啊!ptsd了,大家怎么越来越强

2. 论文逐段精读

2.1. Abstract

        ①挑战:医学数据少且高异质性

        ②解决方法:自监督无需大量标记,且作者引入30个数据集,包含46,686 名参与者的 70,781 个样本

2.2. Introduction

        ①除了大型数据集以外,还引入了随机丢弃时间点构成的伪功能连接 (pFC)来进行数据增强

        ②有八个内部诊断任务和七个外部诊断任务(太强了)

2.3. Related Works

2.3.1. Brain Network Study

        ①列举一些相关脑网络分析的模型

2.3.2. Self-Supervised Learning

        ①介绍了其他任务下的无监督模型

        ②基于fMRI的模型如BrainGSL效果一般

2.4. Method

2.4.1. Preliminaries

        ①大脑网络:X\in\mathbb{R}^{V\times V}, V是ROI个数

        ②诊断映射:f:\boldsymbol{X}\to y

        ③整体框架:

2.4.2. Pseudo Functional Connectivity Augmentation

        ①对于原始的fmri time series:\boldsymbol{S}\in\mathbb{R}^{V\times T} ,T是时间点

        ②从S中mask一些时间点得到\hat{\boldsymbol{S}}\in\mathbb{R}^{V\times(T-M)},用\hat{\boldsymbol{S}}来计算伪功能连接矩阵(pFC)\hat{\boldsymbol{X}}

2.4.3. Brain Network Transformer Encoder

        ①计算注意力:

H^L=\mathrm{MHSA}(\boldsymbol{X})\in\mathbb{R}^{V\times V}

\begin{gathered} Q^{l,c}=H^{l-1}W_{q}^{l,c}, \\ K^{l,c}=H^{l-1}W_{k}^{l,c}, \\ V^{l,c}=H^{l-1}\boldsymbol{W}_v^{l,c} \end{gathered}

\boldsymbol{H}^{l,c}=\mathrm{Softmax}\left(\frac{\boldsymbol{Q}^{l,c}(\boldsymbol{K}^{l,c})^T}{\sqrt{d}}\right)\boldsymbol{V}^{l,c}

其中l是注意力层数,c是自注意力头个数

2.4.4. Masked ROI Modelling

        ①对于最上层的MRM网络,随机掩码掉一些token(应该是一行)然后替换为可学习嵌入

        ②两层的MLP分类头应用InfoNCE损失:

L_c=-\frac{1}{N}\sum_{i=1}^N\log\left(\frac{\exp(\boldsymbol{c}_i^T\boldsymbol{x}_i^{\prime})}{\sum_{j=1}^N\exp(\boldsymbol{c}_i^T\boldsymbol{x}_j^{\prime})}\right)

这是让同一个ROI下被掩码的特征与加工的特征更相似,不同ROI特征差距更大(这叫分类孙书记好奇怪,为什么不叫对比损失)

        ③三层的MLP重建头应用重建损失:

L_r=\frac{1}{N}\sum_{i=1}^N||\boldsymbol{r}_i-\boldsymbol{x}_i^{\prime}||^2

2.4.5. Latent Representation Alignment

        ①原始矩阵通过自注意力会得到:X\to O\in\mathbb{R}^{V\times V}

        ②读出函数把O变成Z\in\mathbb{R}^{D\times V}

        ③作者要让同一个被试的两个pFC通过网络后很相似,用Prediction来对齐:

\xi\leftarrow\tau\xi+(1-\tau)\theta

        ④损失:

I_{latent}=2-2-\frac{<q_{\theta}(Z),\hat{Z}>}{||q_{\theta}(Z)||_2\cdot||\hat{Z}||_2}

        ⑤把正方形降维为\boldsymbol{O}\in\mathbb{R}^{D\times V}

2.4.5. Optimization

        ①损失函数:

L=L_\mathrm{la~tent}+\lambda_cL_c+\lambda_rL_r

2.5. Experiments

2.5.1. Datasets

        ①数据统计:

其中I类用于预训练,II类的70%用于预训练,30%用于验证和评估,III类用于评估泛化性

2.5.2. Evaluation

        ~

2.5.3. Data Preprocessing

        ①预处理管道:可配置连接组分析管道(C-PAC)

        ②功能连接:皮尔逊

        ③脑图谱:Schaefer 100

2.5.4. Implementation Details

        ①优化器:Adam

        ②学习率:在10个热身期内从3e-5增加到3e-4,权重衰减为5e-5

        ③批量:256

        ④Epoch: 2000

        ⑤衰减率:\tau =0.996

        ⑥⭐全场坐下!实验是在配备 64 个 NVIDIA Tesla V100 GPU 的平台上进行的,每次训练分配 8 个 GPU。每次预训练大约需要 150 小时。

        ⑦Transfomer层:32

        ⑧Transformer头:20

        ⑨前馈神经网络的隐藏特征:4096

        ⑩损失参数:\lambda _c=0.1,\lambda _r=5(5??不是0.5吗怎么这么大)

        ⑪重复验证次数:10

2.5.5. Metrics

        ~

2.6. Results

2.6.1. Brain Disorder Diagnosis Performance

        ①内部数据集上的测试结果:

2.6.2. Sensitive Analysis and Ablation Studies

        ①损失项消融:

        ②Dropout rate消融:

        ③模型配置消融:

小模型、基本模型和大模型分别配备 8、16 和 32 个 Transformer 层、5、10 和 20 个注意力头,以及 1024、2048 和 4096 个 FFN 功能。它们的总参数分别为 14.4 M、25.4 M 和 67.0 M。

2.6.3. Generalizability and Few/Zero-Shot Evaluation

        ①在外部任务上的泛化性评估:

        ②少样本和零样本的运作流程:

2.6.4. Biological Explanation

        ①七个内部任务的功能连接注意力图:

        ②大脑网络的多变量分析带来的十个最关键脑区:

        ③关键脑区可视化:

2.7. Discussion

        ①可以尝试别的微调办法

        ②可以纳入多模态

2.8. Conclusion

        ~

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐