打開網易新聞 查看精彩圖片

合作單位包括清華、國科大、上海交大、阿里巴巴。本文第一作者為殷東碩,清華大學計算機系「水木學者」博后,中科院博士,曾以一作身份在 Nature Communications、IEEE CVPR、IEEE ICCV、ACM MM、IEEE TITS 等國際期刊/會議發(fā)表論文,并任 NeurIPS、CVPR、ICCV、ICLR、IEEE TIP、IEEE TMM 等會議期刊審稿人。曾獲「中國科學院院長獎」,并與微軟亞洲研究院 MSRA 和阿里巴巴集團進行科研合作。研究方向包括計算機視覺、參數高效微調、視頻生成、多模態(tài)以及遙感圖像解譯等。

Mona(Multi-cognitive Visual Adapter)是一種新型視覺適配器微調方法,旨在打破傳統(tǒng)全參數微調(full fine-tuning)在視覺識別任務中的性能瓶頸

打開網易新聞 查看精彩圖片

  • 論文標題:5%>100%: Breaking Performance Shackles of Full Fine-Tuning on Visual Recognition Tasks
  • 論文地址:https://arxiv.org/pdf/2408.08345
  • 代碼地址:https://github.com/Leiyi-Hu/mona

Mona 方法通過引入多認知視覺濾波器和優(yōu)化輸入分布,僅調整 5% 的骨干網絡參數,就能在實例分割、目標檢測、旋轉目標檢測等多個經典視覺任務中超越全參數微調的效果,顯著降低了適配和存儲成本,為視覺模型的高效微調提供了新的思路。

論文亮點

隨著現代深度學習的發(fā)展,訓練數據和模型規(guī)模的增加成為模型性能的重要增長點,但隨之而來的是模型的垂直應用和微調成本和難度的提升。

傳統(tǒng)全量微調需要更新模型所有參數(如 GPT-3 的 1750 億參數),計算成本極高。即使以早期的 BERT 為例,單卡訓練 100 萬數據也需 5-7 小時,對硬件資源和時間的要求限制了研究復現和實際應用。

同時,隨著模型參數從億級邁向萬億級,直接微調不僅成本高昂,還可能因過擬合導致性能下降。此外,多任務場景下需為每個任務保存完整模型副本,存儲成本劇增。

參數高效微調(Parameter Efficient Fine-Tuning,PEFT)通過保持預訓練模型參數凍結,僅調整少量參數就可實現大模型在垂直應用領域的高效適配。但目前大多數 PEFT 方法,尤其是視覺領域的 PEFT 方法的性能相較于全量微調而言還存在劣勢。

Mona 通過更適合視覺信號處理的設計以及對預訓練特征分布的動態(tài)優(yōu)化,在小于 5% 的參數成本下首次突破了全量微調的性能枷鎖,為視覺微調提供了新的解決方案。

本文的核心在于強調:(1)PEFT 對于視覺模型性能上限的提升(尤其是參數量較大的模型);(2)視覺模型在全微調(尤其是少樣本情況)會存在嚴重的過擬合問題;(3)1×LVM + n×Adapter 模式在實際業(yè)務中潛在的性能和效率優(yōu)勢。

對于具體業(yè)務來說,有些用到 LVM 或者多模態(tài)大模型(如 OCR 等任務)的任務會對視覺編碼器部分進行固定或僅微調 linear 層來適應下游數據。Mona 的存在理論上可以進一步提升 LVM、多模態(tài)大模型對視覺特征的理解和重構,尤其是對于一些少樣本 post-training 問題。

方法

Mona 包含降維、多認知視覺濾波器、激活函數和升維等模塊,并在適配器內部加入了跳躍連接(Skip-Connections),以增強模型的適應能力。這種結構設計使得 Mona 能夠在保持高效的同時,顯著提升視覺任務的性能。

打開網易新聞 查看精彩圖片

多認知視覺濾波器

Mona 方法的核心在于引入了多認知視覺濾波器,這些濾波器通過深度可分離卷積(Depth-Wise Convolution)和多尺度卷積核(3×3、5×5、7×7)來增強適配器對視覺信號的處理能力。與傳統(tǒng)的線性適配器不同,Mona 專門針對視覺任務設計,能夠更好地處理二維視覺特征,通過多尺度特征融合提升模型對視覺信息的理解能力。

輸入優(yōu)化

Mona 在適配器的前端加入了分布適配層(Scaled LayerNorm),用于調整輸入特征的分布。這種設計能夠優(yōu)化從固定層傳遞過來的特征分布,使其更適合適配器的處理,從而提高微調效率。

實驗結果

實驗設置

論文在多個代表性視覺任務上進行了實驗,包括:

  • 實例分割(COCO)
  • 語義分割(ADE20K)
  • 目標檢測(Pascal VOC)
  • 旋轉目標檢測(DOTA/STAR)
  • 圖像分類(Flowers102、Oxford-IIIT Pet、VOC2007)

實驗使用了 SwinTransformer 系列作為骨干網絡,并基于 ImageNet-22k 數據集進行預訓練。

打開網易新聞 查看精彩圖片

性能對比

打開網易新聞 查看精彩圖片

  • 在 COCO 數據集上,Mona 方法相比全參數微調提升了 1% 的 mAP,僅調整了不到 5% 的參數。

打開網易新聞 查看精彩圖片

  • 在 ADE20K 數據集上,Mona 提升了 0.18% 的 mIoU,表現出色。
  • 在 Pascal VOC 數據集上,Mona 提升了 3.6% 的 APbox,顯示出顯著的性能提升。

打開網易新聞 查看精彩圖片

  • 在旋轉目標檢測任務(DOTA/STAR)中,Mona 在多個框架下均優(yōu)于其他方法。

打開網易新聞 查看精彩圖片

  • 在圖像分類任務上,Mona 也有不俗的性能。

收斂性分析

打開網易新聞 查看精彩圖片

在所有方法中,Mona 收斂速度更快,并且明顯超過了全微調。

即插即用模塊

import torch.nn as nn

import torch.nn.functional as F

# ------------------------------ Mona 模塊 ------------------------------

INNER_DIM = 64

class MonaOp(nn.Module):

def __init__(self, in_features):

super().__init__()

self.conv1 = nn.Conv2d(in_features, in_features, kernel_size=3, padding=3 // 2, groups=in_features)

self.conv2 = nn.Conv2d(in_features, in_features, kernel_size=5, padding=5 // 2, groups=in_features)

self.conv3 = nn.Conv2d(in_features, in_features, kernel_size=7, padding=7 // 2, groups=in_features)

self.projector = nn.Conv2d(in_features, in_features, kernel_size=1, )

def forward(self, x):

identity = x

conv1_x = self.conv1(x)

conv2_x = self.conv2(x)

conv3_x = self.conv3(x)

x = (conv1_x + conv2_x + conv3_x) / 3.0 + identity

identity = x

x = self.projector(x)

return identity + x

class Mona(BaseModule):

def __init__(self,

in_dim,

factor=4):

super().__init__()

self.project1 = nn.Linear(in_dim, INNER_DIM)

self.nonlinear = F.gelu

self.project2 = nn.Linear(INNER_DIM, in_dim)

self.dropout = nn.Dropout(p=0.1)

self.adapter_conv = MonaOp(INNER_DIM)

self.norm = nn.LayerNorm(in_dim)

self.gamma = nn.Parameter(torch.ones(in_dim) * 1e-6)

self.gammax = nn.Parameter(torch.ones(in_dim))

def forward(self, x, hw_shapes=None):

identity = x

x = self.norm(x) * self.gamma + x * self.gammax

project1 = self.project1(x)

b, n, c = project1.shape

h, w = hw_shapes

project1 = project1.reshape(b, h, w, c).permute(0, 3, 1, 2)

project1 = self.adapter_conv(project1)

project1 = project1.permute(0, 2, 3, 1).reshape(b, n, c)

nonlinear = self.nonlinear(project1)

nonlinear = self.dropout(nonlinear)

project2 = self.project2(nonlinear)

return

結論

Mona 方法通過多認知視覺濾波器和輸入優(yōu)化,顯著提升了視覺任務的微調性能,同時大幅減少了參數調整量。這一方法不僅在多個視覺任務中超越了傳統(tǒng)全參數微調,還為未來視覺模型的高效微調提供了新的方向。

預印版期間,Mona 已被復旦、中科大、南大、武大等多家單位的工作視為 SOTA 方法運用在醫(yī)學、遙感等領域。Mona 的開源代碼將進一步推動這一領域的研究和應用。