近年来,Transformer模型凭借其出色的全局信息捕获能力和强大的表示能力,在医学图像分割领域被广泛应用,并取得了显著成效。然而,这些方法在对图像进行序列化时,会将图像分割成固定大小的块,仅提取单一尺度的全局特征,一定程度上割裂了图像的语义特征,最终导致分割精度不佳。鉴于此,我们提出了一种多尺度自注意力Transformer架构(MultiFormer)。该架构首先采用连续卷积和下采样模块对图像进行处理,然后使用多尺度卷积投影模块来替换原来1*1的投影模块,最后在自注意力模块生成的特征图中引入了可变形卷积。与传统Transformer图像序列化过程相比Ceralasertib化学结构,这种连续卷积在产生相同分辨率的特征时,有效增大了感受野,保留2D图像的空间相关性,避免固定位置和大小的图像块带来的语义信息损失;其次,多尺度卷积投影模块利用四种不同大小的卷积核捕捉图像中的上下文信息,并通过通道拼接实现多尺度特征的融合,反应了不同尺度下局部与局部间的注意力,而不仅限于单一尺度,实现了模型对不同尺度语义信息的聚合能力,进一步减轻了语义割裂的问题。此外,可变形卷积通过引入一个额外的卷积层来学习并生成偏移场,使得卷积核能够灵活调整Disease genetics其形状,以适应图像中形态多变的病变或器官,提升模型对复杂医学图像的处理能力。将该模块分别插入到SETR、TransUnet、TransFuse三个网络结构中,并在ACDC心脏数据集和ISIC2018皮肤病变数据集上进行实验,结果表明Dice系数分别提升了3.63%、1.06%、2CX-5461配制.30%和1.22%、2.31%、3.01%。MultiFormer具有即插即用性,能够轻松地集成到各种下游医学图像分析任务中。