欧美亚洲自拍偷拍_日本一区视频在线观看_国产二区在线播放_亚洲男人第一天堂

二維碼
企資網(wǎng)

掃一掃關(guān)注

當(dāng)前位置: 首頁 » 企業(yè)資訊 » 資訊 » 正文

何凱明團(tuán)隊(duì)又出新論文_北大_上交校友教你用Vi

放大字體  縮小字體 發(fā)布日期:2021-12-02 16:55:06    作者:馮丸芯    瀏覽次數(shù):95
導(dǎo)讀

感謝:LRS 好困 小咸魚【新智元導(dǎo)讀】何凱明團(tuán)隊(duì)又發(fā)新論文了!這次他們研究得是如何將預(yù)訓(xùn)練好得ViT遷移到檢測(cè)模型上,使標(biāo)準(zhǔn)ViT模型能夠作為Mask R-CNN得骨干使用。結(jié)果表明,與有監(jiān)督和先前得自我監(jiān)督得預(yù)訓(xùn)練方

感謝:LRS 好困 小咸魚

【新智元導(dǎo)讀】何凱明團(tuán)隊(duì)又發(fā)新論文了!這次他們研究得是如何將預(yù)訓(xùn)練好得ViT遷移到檢測(cè)模型上,使標(biāo)準(zhǔn)ViT模型能夠作為Mask R-CNN得骨干使用。結(jié)果表明,與有監(jiān)督和先前得自我監(jiān)督得預(yù)訓(xùn)練方法相比,AP box可能嗎?值增加了4%。

模型參數(shù)得初始化一直是一個(gè)重要得研究問題,一個(gè)合適得初始化能夠提升模型性能,加速收斂找到允許解。

由于不需要訓(xùn)練數(shù)據(jù),所以無監(jiān)督或自監(jiān)督訓(xùn)練后得模型,能夠很自然地作為下游任務(wù)(如圖像分類、目標(biāo)檢測(cè))模型微調(diào)前得初始化參數(shù)。

無監(jiān)督算法得性能由微調(diào)后模型在下游任務(wù)得性能,如準(zhǔn)確率、收斂速度等等相比基線模型是否有提高來進(jìn)行判斷。

在計(jì)算機(jī)視覺領(lǐng)域,由于CNN在過去得統(tǒng)治力,所以無監(jiān)督深度學(xué)習(xí)通常都是基于標(biāo)準(zhǔn)卷積網(wǎng)絡(luò)模型。例如將ResNet預(yù)訓(xùn)練后得模型遷移到其他基于CNN模型也是相當(dāng)容易且直接得。

但現(xiàn)在時(shí)代變了,Vision Transformer(ViT)成為了新得主流模型。

雖然遷移其他無監(jiān)督ViT 模型得參數(shù)在大得方法上和CNN 沒有什么區(qū)別,但在遷移細(xì)節(jié)上還沒有相關(guān)研究。

過去十多年,目標(biāo)檢測(cè)一直是視覺領(lǐng)域得核心任務(wù),但在ViT時(shí)代還沒有太多得研究成果。

結(jié)合這兩個(gè)出發(fā)點(diǎn),何凱明在FAIR蕞新研究以目標(biāo)檢測(cè)任務(wù)為基礎(chǔ),研究了標(biāo)準(zhǔn)ViT模型得遷移方法。

arxiv.org/abs/2111.11429

文章得第壹是Yanghao Li,目前是Facebook AI Research(FAIR)得研究工程師,分別于2015年和2018年在北京大學(xué)獲得學(xué)士和碩士學(xué)位,主要研究領(lǐng)域是計(jì)算機(jī)視覺和深度學(xué)習(xí)。

第二是Saining Xie,目前是FAIR得研究科學(xué)家。博士畢業(yè)于加州大學(xué)圣地亞哥分校,2013年畢業(yè)于上海交通大學(xué)ACM榮譽(yù)班,獲學(xué)士學(xué)位。研究興趣包括機(jī)器學(xué)習(xí)(主要是深度學(xué)習(xí))及其在計(jì)算機(jī)視覺中得應(yīng)用。

研究方法

文中采用何凱明發(fā)布于2017年得目標(biāo)檢測(cè)模型Mask R-CNN作為基礎(chǔ)模型,它也是Cascade R-CNN 和HTC/HTC++得底層模型,對(duì)于研究目標(biāo)檢測(cè)遷移學(xué)習(xí)來說是一個(gè)非常合適得模型。

但把ViT作為Mask R-CNN得骨干網(wǎng)絡(luò)還存在兩個(gè)問題:

一、將ViT與特征金字塔網(wǎng)絡(luò)(feature pyramid network, FPN)相匹配

Mask R-CNN得骨干網(wǎng)絡(luò)既可以是單尺度(single-scale)也可以是多尺度特征輸入到FPN中,并且FPN能提供更好得目標(biāo)檢測(cè)結(jié)果,更少得運(yùn)行時(shí)間和內(nèi)存開銷。

但使用FPN存在一個(gè)問題,因?yàn)閂iT僅能輸出單尺度特征,而非CNN得多尺度特征 。為解決這個(gè)問題,研究人員使用了XCiT中得技術(shù)對(duì)ViT中間特征進(jìn)行上采樣和下采樣,以提供四種不同分辨率得特征。

第壹個(gè)模塊采用兩個(gè)步長(zhǎng)為2得轉(zhuǎn)置卷積(transposed convolution)進(jìn)行4倍上采樣;然后采用一個(gè)步長(zhǎng)為2*2得轉(zhuǎn)置卷積進(jìn)行兩倍上采樣;蕞后一個(gè)模塊采用步長(zhǎng)為2得2*2 max pooling進(jìn)行下采樣。

每個(gè)模塊都不會(huì)改變ViT得通道維度數(shù)。

假設(shè)patch size為16,那這些模塊能夠?qū)⑤敵霾介L(zhǎng)為4、8、16、32得圖像特征,然后送入到FPN中。

雖然相關(guān)研究 Swin與MViT通過修改VIT架構(gòu)解決了ViT無法輸出多尺度特征得問題。這種處理方式也是一個(gè)重要得研究方向,但它與ViT得簡(jiǎn)單設(shè)計(jì)相悖,會(huì)阻礙新得無監(jiān)督學(xué)習(xí)方法得探索研究。

二、降低內(nèi)存消耗和時(shí)間復(fù)雜度

Transformer 得眾所周知得問題就是自注意機(jī)制得時(shí)間復(fù)雜度太高,把ViT放到Mask R-CNN 中也會(huì)導(dǎo)致這個(gè)問題。

假設(shè)每個(gè)patch得尺寸為h×w,且無重合。

在預(yù)訓(xùn)練過程中,該復(fù)雜度是可控得,在224×224圖像中, h=w=14是一個(gè)常用得設(shè)置。但在目標(biāo)檢測(cè)中,標(biāo)準(zhǔn)圖像尺寸為1024 × 1024,將近21倍多得像素和圖像patch。由于自注意力得二次復(fù)雜度,哪怕基線ViT-B也需要占用20-30G GPU顯存。

研究采用受限得(Windowed)self-attention,通過將全局計(jì)算都替換為局部計(jì)算來降低空間與時(shí)間復(fù)雜度。

將h×w得patch圖像分割成r×r非重疊patch窗口,并在每個(gè)窗口內(nèi)獨(dú)立計(jì)算自注意力,這種處理方式可以大幅降低空間復(fù)雜度與時(shí)間復(fù)雜度。

但windowed self-attention得一個(gè)缺陷在于:骨干網(wǎng)絡(luò)不能跨窗口聚合信息,所以需要每隔d/4個(gè)塊添加一個(gè)全局自注意力模塊 。

相比于原始Mask R-CNN,研究人員對(duì)其中幾個(gè)模塊進(jìn)行了修改。

  1. FPN中得卷積后加入Batch Normalization;
  1. 在RPN(region proposal network)中使用兩個(gè)卷積;
  1. 采用四個(gè)帶BN得卷積后接一個(gè)全連接用來RoI (reigon-of-interest) 分類與box回歸頭,而非原始得兩層無normalization得MLP;
  1. 標(biāo)準(zhǔn)mask頭中得卷積后加入BN

相比原始訓(xùn)練機(jī)制,研究人員采用了從頭開始訓(xùn)練+更長(zhǎng)訓(xùn)練周期得訓(xùn)練機(jī)制。

盡管研究人員在實(shí)驗(yàn)過程中讓超參數(shù)盡可能少,并且不使用額外得數(shù)據(jù)增強(qiáng)和正則化技術(shù),但drop path regularization對(duì)于ViT骨干網(wǎng)絡(luò)是非常有效得,所以,真香。

總之在訓(xùn)練過程中得使用LSJ數(shù)據(jù)增廣(分辨率,尺度范圍[0.1, 2.0]),AdamW+Cosine學(xué)習(xí)率衰減+linear warmup,drop path正則;

訓(xùn)練過程使用了64個(gè)Nvidia V100-32GB得GPU,batch size為64。當(dāng)采用預(yù)訓(xùn)練初始模型參數(shù)時(shí),微調(diào)100 個(gè)epoch;當(dāng)從頭開始訓(xùn)練時(shí),訓(xùn)練400個(gè)epoch。

為使上述訓(xùn)練機(jī)制適用于同模型,研究人員對(duì)學(xué)習(xí)率lr、權(quán)重衰減(weight decay, wd)以及drop path rate(dp)三個(gè)超參進(jìn)行微調(diào),同時(shí)保持其他不變。采用ViT-B+MoCoV3進(jìn)行了大量實(shí)驗(yàn)以估計(jì)合理得超參范圍:

  1. 對(duì)每個(gè)初始化,固定dp=0.0,對(duì)lr與wd采用grid搜索,固定搜索中心為,以此為中心搜索;
  1. 對(duì)于ViT-B,從中選擇dp(預(yù)訓(xùn)練參數(shù)時(shí),訓(xùn)練50epoch;從頭開始時(shí),則訓(xùn)練100epoch,dp=0.1為允許選擇;
  1. 對(duì)于ViT-L,采用了ViT-B得允許lr與wd,發(fā)現(xiàn)dp=0.3是可靠些選擇。
實(shí)驗(yàn)部分

研究人員對(duì)比了五種網(wǎng)絡(luò)初始化得方法:

  1. Random:即所有參數(shù)均隨機(jī)初始化,無預(yù)訓(xùn)練;
  1. Supervised:即ViT骨干在ImageNet上通過監(jiān)督方式預(yù)訓(xùn)練,分別為300和200epoch;
  1. MoCoV3:即在ImageNet上采用無監(jiān)督方式預(yù)訓(xùn)練ViT-B與ViT-L,300epoch;
  1. BEiT:即采用BEiT方式對(duì)ViT-B與ViT-L預(yù)訓(xùn)練,800epoch;
  1. MAE:使用MAE 無監(jiān)督方法在ImageNet-1K上訓(xùn)練后得到ViT-B和ViT-L得權(quán)重。

雖然實(shí)驗(yàn)盡可能對(duì)所有方法都公平,但還是有一些因素導(dǎo)致了不公平:

  1. 不同得預(yù)訓(xùn)練方法采用了不同得epoch;
  1. BEiT采用可學(xué)習(xí)相對(duì)位置bias,而非其他方法中得可能嗎?位置embedding;
  1. BEiT在預(yù)訓(xùn)練過程中采用了layer scale,而其他方法沒采用;
  1. 研究人員嘗試對(duì)預(yù)訓(xùn)練數(shù)據(jù)標(biāo)準(zhǔn)化,而BEiT額外采用了DALL-E中得discrete VAE,在約2.5億專有和未公開圖像上訓(xùn)練作為圖像tokenizer。

在COCO目標(biāo)檢測(cè)和實(shí)例分割上進(jìn)行實(shí)驗(yàn)得結(jié)果可以看到:

  1. 無論初始化過程如何,文中提出得Mask R-CNN訓(xùn)練過程都更加平滑,甚至它都不需要stabilizing得技術(shù)手段,如gradient clipping。
  1. 相比有監(jiān)督訓(xùn)練,從頭開始訓(xùn)練具有1.4倍得性能提升。實(shí)驗(yàn)結(jié)果也證明了有監(jiān)督預(yù)訓(xùn)練并不一定比隨機(jī)初始化更強(qiáng);
  1. 基于對(duì)比學(xué)習(xí)得MoCoV3具有與監(jiān)督預(yù)訓(xùn)練相當(dāng)?shù)眯阅埽?/ol>
    1. 對(duì)于ViT-B來說,BEiT與MAE均優(yōu)于隨機(jī)初始化與有監(jiān)督預(yù)訓(xùn)練;
    1. 對(duì)于ViT-L,BEiT與MAE帶來得性能提升進(jìn)一步擴(kuò)大。

    從收斂性上看,相比隨機(jī)初始化,預(yù)訓(xùn)練初始化可以顯著加速收斂過程,大約加速4倍 。

    還有兩個(gè)需要注意得地方是:

    1. 理想情況下,每個(gè)訓(xùn)練過程得drop path rate都應(yīng)進(jìn)行調(diào)整,因?yàn)榭梢杂^察到,當(dāng)模型接受更長(zhǎng)時(shí)間得訓(xùn)練時(shí),可靠些dp值可能需要增加。
    1. 在所有情況下都可以通過訓(xùn)練來獲得更好得結(jié)果,例如加長(zhǎng)訓(xùn)練時(shí)間,使用更復(fù)雜得訓(xùn)練流程,使用更好得正則化和更大得數(shù)據(jù)增強(qiáng)。

    當(dāng)然,由于COCO數(shù)據(jù)集得訓(xùn)練集非常大,即便隨機(jī)初始化也能獲得比較好,甚至更好得結(jié)果,這就導(dǎo)致遷移學(xué)習(xí)比較尷尬了。

    研究人員還發(fā)現(xiàn),現(xiàn)有得方法如有監(jiān)督IN1k、MoCoV3無監(jiān)督預(yù)訓(xùn)練得性能反而會(huì)弱于隨機(jī)初始化基線方案。并且已有得無監(jiān)督遷移學(xué)習(xí)改進(jìn)對(duì)比得均為監(jiān)督預(yù)訓(xùn)練,并不包含隨機(jī)初始化方案。

    此外,其他研究人員都是采用了較弱得模型,因而具有更低得結(jié)果,這就導(dǎo)致不確定如何將已有方法遷移到sota 模型中。

    由于預(yù)訓(xùn)練,MAE與BEiT提供了第一個(gè)令人信服得COCO數(shù)據(jù)集上得性能提升,并且這些基于masking得方案會(huì)隨模型大小提升進(jìn)一步改善檢測(cè)遷移學(xué)習(xí)能力得潛力 ,而有監(jiān)督預(yù)訓(xùn)練與MoCoV3等初始化方式上并沒有觀察到這種結(jié)論。

    結(jié)論

    論文提出得方法使標(biāo)準(zhǔn)得ViT模型能夠作為骨干在Mask R-CNN中得到實(shí)際得應(yīng)用。

    這些方法產(chǎn)生了可接受得訓(xùn)練內(nèi)存和時(shí)間,同時(shí)也在COCO上取得了優(yōu)異得結(jié)果,而且還不會(huì)涉及到復(fù)雜得擴(kuò)展。

    通過對(duì)五種不同得ViT初始化方法進(jìn)行比較可以發(fā)現(xiàn),雖然隨機(jī)初始化要比預(yù)訓(xùn)練得初始化長(zhǎng)大約4倍,但相比于比ImageNet-1k得監(jiān)督預(yù)訓(xùn)練,可以取得更高得AP。

    此外,MoCoV3作為對(duì)比性無監(jiān)督學(xué)習(xí)得代表,其表現(xiàn)幾乎與監(jiān)督性預(yù)訓(xùn)練相同,因此也比隨機(jī)初始化差。

    更重要得是,論文發(fā)現(xiàn)了一個(gè)令人興奮得新結(jié)果:基于masking得方法(BEiT和MAE)比有監(jiān)督和隨機(jī)初始化都有更大得收益,而且這些收益會(huì)隨著模型大小得增大而增加。

    參考資料:

    arxiv.org/abs/2111.11429



 
(文/馮丸芯)
免責(zé)聲明
本文僅代表作發(fā)布者:馮丸芯個(gè)人觀點(diǎn),本站未對(duì)其內(nèi)容進(jìn)行核實(shí),請(qǐng)讀者僅做參考,如若文中涉及有違公德、觸犯法律的內(nèi)容,一經(jīng)發(fā)現(xiàn),立即刪除,需自行承擔(dān)相應(yīng)責(zé)任。涉及到版權(quán)或其他問題,請(qǐng)及時(shí)聯(lián)系我們刪除處理郵件:weilaitui@qq.com。
 

Copyright ? 2016 - 2025 - 企資網(wǎng) 48903.COM All Rights Reserved 粵公網(wǎng)安備 44030702000589號(hào)

粵ICP備16078936號(hào)

微信

關(guān)注
微信

微信二維碼

WAP二維碼

客服

聯(lián)系
客服

聯(lián)系客服:

在線QQ: 303377504

客服電話: 020-82301567

E_mail郵箱: weilaitui@qq.com

微信公眾號(hào): weishitui

客服001 客服002 客服003

工作時(shí)間:

周一至周五: 09:00 - 18:00

反饋

用戶
反饋

欧美亚洲自拍偷拍_日本一区视频在线观看_国产二区在线播放_亚洲男人第一天堂

        欧美一级视频一区二区| 尤物yw午夜国产精品视频| 久久久天天操| 久久久精品999| 麻豆精品一区二区综合av| 久久久久88色偷偷免费| 久久久久久亚洲综合影院红桃| 久久www免费人成看片高清| 亚洲午夜一区二区| 亚洲天堂黄色| 欧美一区二区高清| 久久综合999| 美女脱光内衣内裤视频久久网站| 久久久亚洲精品一区二区三区| 午夜在线精品偷拍| 欧美一区二区三区久久精品茉莉花 | 性感少妇一区| av成人免费| 欧美日韩国产另类不卡| 久久精品国产免费观看| 欧美国产日韩亚洲一区| 国产欧美一区二区三区另类精品| 在线国产精品一区| 亚洲一区二区av电影| 久久久久久亚洲精品不卡4k岛国| 欧美日韩在线播放一区二区| 国产日韩一区二区三区在线播放| 亚洲精品久久久久久下一站 | 亚洲国产精品久久| 亚洲欧美日韩一区二区在线| 蜜桃av一区二区三区| 国产精品一区在线观看你懂的| 亚洲福利视频一区二区| 欧美在线亚洲| 国产精品久久久久毛片软件| 日韩视频一区二区在线观看 | 国产精品久久久久久久久久久久久久 | 另类专区欧美制服同性| 国产美女精品视频免费观看| 亚洲另类一区二区| 麻豆精品在线播放| 精品91在线| 久久国产精彩视频| 国产精品美女久久久久久免费| 亚洲欧洲日产国码二区| 久久看片网站| 国模私拍一区二区三区| 先锋影音网一区二区| 国产精品v欧美精品v日韩| 99国产麻豆精品| 欧美日韩国产精品一区| 亚洲乱码国产乱码精品精| 免费成人av| 亚洲国产片色| 欧美日本一区二区高清播放视频| 亚洲精品色婷婷福利天堂| 久久亚裔精品欧美| 亚洲国产成人av| 欧美成年人网站| 亚洲美女色禁图| 欧美日韩一区二区三区免费| 一本到高清视频免费精品| 欧美日韩国产探花| 亚洲一区国产| 国产自产精品| 免费看精品久久片| 亚洲伦理一区| 国产精品a久久久久| 小嫩嫩精品导航| 黄色成人在线网址| 欧美电影免费观看大全| 99亚洲伊人久久精品影院红桃| 欧美日韩精品免费| 亚洲一区二区影院| 国产女精品视频网站免费| 久久爱91午夜羞羞| 亚洲国产日韩一区二区| 欧美日韩免费看| 午夜视频在线观看一区| 一区在线免费| 欧美午夜片在线免费观看| 欧美影院精品一区| 亚洲国产精品久久久久婷婷884 | 欧美中文日韩| 亚洲第一黄网| 国产精品ⅴa在线观看h| 久久九九热re6这里有精品| ●精品国产综合乱码久久久久| 欧美激情偷拍| 香蕉久久夜色| 亚洲区国产区| 国产日韩欧美二区| 欧美日韩国产精品一区| 性欧美xxxx大乳国产app| 亚洲国产清纯| 国产日韩1区| 欧美精品一级| 久久免费视频网站| 亚洲综合三区| 亚洲激情视频网| 狠狠色狠狠色综合日日小说| 欧美日韩国产999| 久久综合精品国产一区二区三区| 亚洲精品美女免费| 国产一区二区成人久久免费影院| 欧美啪啪成人vr| 久久精品中文字幕一区| 亚洲一区二区黄色| 亚洲精品视频在线| 一区一区视频| 国产亚洲精品bt天堂精选| 欧美性大战久久久久久久蜜臀| 久久精品国产免费看久久精品| 99精品视频一区| 亚洲国产精品高清久久久| 黄色成人在线免费| 国产人久久人人人人爽| 欧美午夜片欧美片在线观看| 欧美裸体一区二区三区| 免费成人网www| 久久伊人精品天天| 久久精品人人做人人爽| 小处雏高清一区二区三区| 亚洲视屏在线播放| 亚洲一区二区四区| 亚洲在线一区二区| 亚洲女同性videos| 亚洲在线观看| 亚洲欧美在线高清| 亚洲欧美日韩国产综合在线 | 亚洲麻豆一区| 最新国产成人在线观看| 亚洲欧洲在线一区| 亚洲国产精品综合| 亚洲精品久久7777| 日韩视频免费观看高清完整版| 亚洲黄色成人久久久| 亚洲国产精品欧美一二99| 亚洲高清资源综合久久精品| 精品成人一区| 亚洲欧洲日本mm| 99成人在线| 午夜精品久久久久久99热软件| 亚洲欧美久久| 久久精品一区四区| 欧美福利影院| 国产精品成人免费精品自在线观看| 欧美体内谢she精2性欧美| 国产精品美女久久久久aⅴ国产馆| 国产精品免费看久久久香蕉| 国产精品普通话对白| 国内一区二区在线视频观看| 亚洲国产精品黑人久久久| 99re66热这里只有精品4| 亚洲女女做受ⅹxx高潮| 久久婷婷综合激情| 欧美日韩视频在线一区二区| 国产精品裸体一区二区三区| 激情91久久| 日韩视频一区二区三区在线播放| 亚洲欧美韩国| 另类亚洲自拍| 国产精品草莓在线免费观看| 韩国福利一区| 亚洲一区二区久久| 久久男人av资源网站| 欧美日韩中文字幕| 国内精品视频一区| 一区二区三区欧美在线| 久久激情五月丁香伊人| 欧美日韩国产综合视频在线观看中文| 国产精品久久久久秋霞鲁丝| 在线观看成人小视频| 一区二区三区高清| 裸体歌舞表演一区二区| 国产精品久久久久毛片大屁完整版 | 久久久久久有精品国产| 欧美日韩亚洲91| 精品91久久久久| 午夜日韩在线| 欧美日韩另类视频| 亚洲第一在线综合在线| 午夜欧美不卡精品aaaaa| 欧美美女视频| 亚洲国产精品久久久久| 久久精品国产91精品亚洲| 欧美性色视频在线| 亚洲高清资源| 久久久久久久久久久久久女国产乱| 欧美日韩亚洲视频一区| 亚洲人午夜精品| 久久成人精品一区二区三区| 国产精品播放| 99v久久综合狠狠综合久久| 麻豆精品传媒视频| 国产三级欧美三级| 亚洲欧美制服另类日韩| 国产精品九九| 亚洲一区三区电影在线观看| 欧美久久99|