对比学习神经科学初探

对比学习在自闭症谱系障碍研究中的应用:从CVAE到神经解剖学特征提取

引言

自监督学习(Self-supervised learning, SSL)在2019年左右开始广泛流行,其中对比学习的理念在各种大模型(如MOCO等)中得到了成功应用,进一步提升了SSL在各个下游任务中的性能。近一年来,研究人员也开始将对比学习应用到神经科学领域。例如,Wang等人将对比学习的思想融入图卷积神经网络中,用于ADHD(注意缺陷多动障碍)的分类研究,并建立了潜在的人口学联系[1]。今天我要分享的这篇发表在Science上的论文则使用对比学习的思想,成功分离出ASD(自闭症谱系障碍)特异性的潜在空间(latent space)表征,并与患者行为建立了联系。

在介绍本篇论文之前,有必要补充一些前置知识,帮助理解各种生成模型的概念及其联系与区别。这里我们不讨论各种网络的实现及训练细节,仅概述其核心思想及特点。

前置知识

什么是AE(自编码器)

Auto Encoder模型主要由Encoder(编码器)和Decoder(解码器)两部分组成。Encoder部分对输入的图像进行”编码”,得到该图像的低维表征;Decoder部分则对编码后的低维表征进行重建,将其恢复到原始图像的状态。由此可见,AE模型的主要任务是对图像进行编码和重建,同时也可以实现图像去噪等功能。

什么是VAE(变分自编码器)

虽然VAE名称中只比AE多了一个”Variational”(变分)词,但其性质却发生了根本变化。VAE实际上是一个生成式模型。VAE同样可以将图像进行”重建”,但此时重建的信息并不完全依赖于输入样本本身,而是依赖于样本的分布状态。

VAE模型的encoder不再仅仅获取图像本身的编码,而是尝试捕获样本的分布(即潜在空间),decoder的任务则是通过样本的分布生成新的样本,而不仅仅是复原原始样本。在实践中,我们通常假设样本服从高斯分布,其均值为E,方差为V。值得注意的是,本文引用的是一种条件变分自编码器(Conditional VAE),而一般的VAE生成的图像是不固定的。换句话说,使用MNIST手写数字数据集训练的普通VAE模型,在生成数字的过程中并不能控制输出是哪个数字。

由此可见,VAE和AE模型从本质上是不同的:AE侧重于对图像本身进行编解码,VAE则是一个生成式模型,它通过对样本进行采样来捕获样本特征的分布,进而生成新的样本。当AE模型面对复杂的样本分布时,往往不能对其进行有效重建。

什么是GAN(生成对抗网络)

GAN也是一个生成式模型,其主要功能是”无中生有”。它与VAE这种”有中生有”不同,GAN直接对高斯分布的特征进行重建,在重建过程中使其分布逐渐接近真实样本分布,从而间接生成样本。我之前已经分享过Yan等人关于GAN在fMRI信号重建中应用的论文[2],在此不做赘述。

GAN与VAE最大的不同在于:VAE是直接对样本进行采样,而GAN是通过对抗训练间接逼近真实样本分布。

什么是CVAE(对比变分自编码器)

这与前文提到的条件变分自编码器(Conditional VAE)不同。这里介绍的CVAE来自于一篇从2019年开始预发表的论文:”Contrastive Variational Autoencoder Enhances Salient Features”[3]。该论文提出了一个有趣的问题:如何从一张融合图像中将目标特征(target)从背景图像中提取出来?

CVAE的模型架构直观地展示了如何从混合图像中增强显著(salient)特征:

  1. 首先,训练一个只包含背景的VAE模型,此时VAE模型已经采样到背景样本的分布
  2. 然后对混合图像进行训练,采样显著特征分布
  3. 最后将二者(背景特征分布、显著特征分布)进行组合,即可对混合图像进行重建

简言之,”混合-背景=显著特征”。

论文内容

研究背景

被诊断为同一疾病的个体常常表现出不同的行为症状和基因变异。研究人员至今尚未识别出与症状相关且能够在不同参与者群体(如ASD患者)之间泛化的系统性神经解剖学变异。

基于此,作者提出了一个合理假设:ASD的神经解剖学变异可能被其他因素掩盖了。换句话说,ASD特异性变异(ASD-specific variation)可能被导致大脑变异的其他因素(如年龄、性别、研究站点等)所遮蔽。

研究方法

研究采用了类似于前文提出的CVAE方法,旨在将ASD特异性的神经解剖学特征从其他共享变异中分离出来。

研究结果

研究结果可分为四个主要部分:

  1. ASD特异性神经解剖学与临床变异的关系:结果表明ASD特异性的神经解剖学特征确实与临床症状有关联。

  2. 在独立数据集上的泛化能力:模型能够在未见过的数据集上成功泛化,证明了假设的正确性。

  3. 变异的本质特征:通过深入分析,探索了ASD是否存在明显的亚型。

  4. 神经解剖学解释:对深度学习提取的特征进行了可视化解释,这是传统神经影像研究的常用方法。

图A展示了训练的模型架构。作者特意加入了一个VAE模型,强调在混合特征中ASD特异性的特征往往被掩盖。

图B展示了共享特征与特异性特征在其他因素及自闭症量表中的差异,但相关性较小。

图C展示了在一个新的数据集上进行的测试结果,没有进行微调或迁移学习,结果仍然表现出很好的稳健性。

图D使用高斯混合模型进行聚类,但并未得到明显的聚类效果。这表明在结构上ASD可能并不能清晰地分出亚型,而更像是一个连续的概念。

最后一张图展示了可解释性分析,研究者利用ASD患者数据生成了”正常人的脑部结构”,然后使用体素基础形态学(VBM,Voxel-Based Morphometry)进行分析,类似于小鼠研究中的方法。这种方法的优势在于,由于上图D中并未显示出明显的亚型,直接映射回原始空间可能会产生混乱的结果。通过这种方式进行主成分分析(PCA)得到的结果更易于解释。研究者还将PCA结果与临床量表建立联系,进一步证明了这些特征的特异性。

讨论

研究的主要发现和意义包括:

  1. 通过将ASD特异性的神经解剖学变异与共享变异分离,揭示了个体在大脑结构层面的差异与症状以及基因的相关性。

  2. ASD特异性特征可以通过数据驱动的方法(CVAE)进行分离,且该方法无需额外训练即可泛化到新的数据集。未来,在更大数据集和更高分辨率输入上训练的更强大模型有望识别出更多细微的模式。

  3. CVAE方法具有广泛的应用潜力,可用于其他数据模态(如行为数据、功能性影像)和其他精神障碍的研究。

  4. ASD内部的个体变异更适合用连续维度来描述,而非离散的亚型。

这些发现大多符合当前研究趋势,为神经发展障碍研究提供了新的方法论视角。

参考文献

[1] https://arxiv.org/pdf/2203.14044.pdf

[2] https://www.nature.com/articles/s41467-020-18823-9

[3] https://arxiv.org/pdf/1902.04601.pdf