395.
针对皮肤图像中存在目标分割区域尺度变化大、病变区域误分割及边界模糊等问题, 本文提出了一种名为MSANet的皮肤病变分割方法. 该方法以pyramid vision Transformer v2 (PVT v2)网络模型作为骨架网络, 结合Transformer 和卷积神经网络 (CNN)的优势, 通过对多层融合解码策略进行改进, 提升了皮肤病变分割的准确性. 首先, 解码部分利用分割门控注意力模块 (SGA)获取多尺度全局和局部空间特征, 增强模型对上下文信息的捕获能力. 随后采用多尺度上下文注意力模块 (MCA)抽取并整合通道和位置信息, 提升网络对病灶区域的精准定位. 在ISIC2017和ISIC2018数据集上的实验结果表明, MSANet的主要指标
Dice系数分别达到了90.12%和90.91%,
mIoU分别为85.82%和84.27%, 其分割性能优于现有方法.… …
相似文献