我是靠谱客的博主 粗犷背包,最近开发中收集的这篇文章主要介绍MRI to FDG-PET: Cross-Modal Synthesis Using 3D U-Net for Multi-modal Alzheimer’s Classification论文解读方法实验,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

MRI to FDG-PET: Cross-Modal Synthesis Using 3D U-Net for Multi-modal Alzheimer’s Classification

  • 方法
    • 数据集
    • 预处理
    • 网络结构
  • 实验
    • 分类实验

  这篇文章发表于2018年的International Workshop on Simulation and Synthesis in Medical Imaging,论文使用了一个3D U-Net结构从3D MRI中合成3D PET,在定量评估上,使用了MAE、PSNR与SSIM三种指标,并且将合成的PET与MRI一同用于AD分类中,相比只用MRI的70.18%分类精度,使用MRI+合成PET后的结果达到了74.43%。

方法

数据集

  使用了来自ADNI数据集的384个同时具有MRI和PET影像的患者(其中192个正常,192个AD)。

预处理

  首先,使用FSL软件将MR配准到MNI模板空间,它是标准模板。 随后对MR图像进行头盖骨剥离,并归一化到[0,1](避免梯度爆炸和收敛问题)。对PET图像,也配准到相同的MNI模板上,不进行头盖骨剥离,但归一化到[0,1]。值得注意的是,文章提到将处理好的MRI和PET图像使用FSL分割为灰质、白质、脑脊髓(只进行灰质部分的MRI-PET转换?)。并且将预处理好的MRI和PET影像都缩小到了 64 × 64 × 64 64times64times64 64×64×64大小。

网络结构

  3D U-Net结构。目标是学习一个从MRI提取的灰质到PET提取的灰质的映射(但是结果又是整张图像的结果?)。损失函数为二值交叉熵损失。

实验

  使用了9折交叉验证,1折用作测试集,1折用作验证集,剩下7折用于训练数据。训练了10个epoch。则应该是AD和NC混合训练,并没有单独对某一种训练一个模型。
在这里插入图片描述
在这里插入图片描述

分类实验

  使用了L2范数的Logistic regression(逻辑回归,一种经典的二分类算法,参考从原理到应用:简述Logistic回归算法)。并同样使用了9折交叉验证,作者进行的对比如下:采用原始的MRI数据得到一个分类结果、采用原始的PET数据得到一个结果、采用合成的PET数据得到一个结果、采用原始的MRI和合成的PET得到一个结果四者的对比,作者通过采用原始MRI+合成PET相比原始MRI的结果要高说明合成的PET是有意义的(这个对比很不科学?,不应该对比MRI+PET与MRI+合成的PET的结果吗?而且原始数据中的MRI不是已经有对应的PET了?),结果如下:
在这里插入图片描述
  作者还进行了一个配对样本t检验(用于判断样本是否足以代表整体),检验结果显示使用MRI和合成PET图像时,分类准确性略有改善( p = 0.06 p=0.06 p=0.06)。

最后

以上就是粗犷背包为你收集整理的MRI to FDG-PET: Cross-Modal Synthesis Using 3D U-Net for Multi-modal Alzheimer’s Classification论文解读方法实验的全部内容,希望文章能够帮你解决MRI to FDG-PET: Cross-Modal Synthesis Using 3D U-Net for Multi-modal Alzheimer’s Classification论文解读方法实验所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(30)

评论列表共有 0 条评论

立即
投稿
返回
顶部