《Adaptive Weighting Multi-Field-of-View CNN for Semantic Segmentation in Pathology》提出了一种基于自适应加权的多视野卷积神经网络(AWMF-CNN),通过动态融合不同放大倍率下的特征提升病理图像语义分割的准确性,实验表明其性能优于单一放大倍率的独立网络。训练过程数据划分:将图像块训练数据分为训练集(Nx)和验证集(Nx')。预训练阶段:使用Nx预训练三个不同放大倍率的专家CNN(、、)的参数。权重计算:将Nx'输入预训练后的专家CNN,生成三个输出图像,与c个类别的真实标签计算Dice系数,得到三种放大倍率图像块的权重(),作为权重网络()的预测真值。权重网络训练:使用Nx'数据训练网络,更新参数。加权与端到端训练:固定,将Nx输入网络预测权重,对专家CNN的输出进行加权,然后端到端重新训练、、和聚合网络(),更新所有参数。此过程迭代L个epoch。实验结果性能对比:Table 3显示,AWMF-CNN在每种专家类型下的准确率比单一放大倍率中性能最优的独立网络高3%至16%(如Table 2所示)。结果可视化:实验结果通过Dice系数等指标量化,验证了多视野融合和自适应加权的有效性。方法优势动态权重分配:通过权重网络自适应调整不同放大倍率特征的贡献,解决了固定权重无法适应复杂病理结构的问题。端到端优化:联合训练专家网络和聚合网络,确保特征提取与融合的协同性,提升了整体分割精度。



































