• <span id="n97xl"><optgroup id="n97xl"></optgroup></span>
          1. <li id="n97xl"></li>
            <label id="n97xl"><meter id="n97xl"></meter></label>

              CV領域再創佳績!阿里云機器學習平臺 PAI 多篇論文入選 ICCV 2023

                 2023-10-09 6309
              核心提示:阿里云PAI總共有3篇文章入選ICCV 2023,其中阿里云與華南理工大學聯合培養項目產出了基礎模型SMT和圖像復原模型的指紋保護技術兩篇文章,阿里云與IDEA-CVR張磊團隊合作產出了目標檢測Stable DINO一篇文章。此次3篇文章入選ICCV 2023,意味著阿里云PAI在國際計算機視覺領域進一步提升了影響力。
               

              近期,阿里云機器學習平臺PAI發表的多篇論文在ICCV 2023上入選。ICCV是國際計算機視覺大會是由電氣和電子工程師協會每兩年舉辦一次的研究大會。與CVPR和ECCV一起,它被認為是計算機視覺領域的頂級會議之一。ICCV 2023將于10月2日至10月6日法國巴黎舉辦。ICCV匯聚了來自世界各地的學者、工程師和研究人員,分享最新的計算機視覺研究成果和技術進展。會議涵蓋了計算機視覺領域的各個方向,包括圖像處理、模式識別、機器學習、人工智能等等。ICCV的論文發表和演講都備受關注,是計算機視覺領域交流和合作的重要平臺。

              阿里云PAI總共有3篇文章入選ICCV 2023,其中阿里云與華南理工大學聯合培養項目產出了基礎模型SMT和圖像復原模型的指紋保護技術兩篇文章,阿里云與IDEA-CVR張磊團隊合作產出了目標檢測Stable DINO一篇文章。此次3篇文章入選ICCV 2023,意味著阿里云PAI在國際計算機視覺領域進一步提升了影響力。

              論文簡述

              當尺度感知調制遇上Transformer

              近年來,基于Transformer和CNN的視覺基礎模型取得巨大成功。有許多研究進一步地將Transformer結構與CNN架構結合,設計出了更為高效的hybrid CNN-Transformer Network,但它們的精度仍然不盡如意。本文介紹了一種新的基礎模型SMT(Scale-Aware Modulation Transformer),它以更低的參數量(params)和計算量(flops)取得了大幅性能的提升。

              不同于其他CNN-Transformer結合的方案,SMT基于卷積計算設計了一個新穎的輕量尺度感知調制單元Scale-Aware Modulation(SAM),它能夠捕捉多尺度特征的同時擴展感受野,進一步增強卷積調制能力。此外,SMT提出了一種進化混合網絡Evolutionary Hybrid Network(EHN),它能夠有效地模擬網絡從淺層變深時捕捉依賴關系從局部到全局的轉變,從而實現更優異的性能。在ImagNet、COCO以及ADE20k等任務上都驗證了該模型的有效性。值得一提的是,SMT在ImageNet-22k上預訓練后以僅僅80.5M的參數量在ImageNet-1k上達到了88.1%的精度。

              總的來說,在視覺基礎模型backbone的探索路程中,我們有著對未來的展望:

              以視覺Transformer為例,除了在自監督學習等預訓練中依舊用著ViT這種plain Vision Transformer,大部分視覺基礎模型都以Swin和PvT這種Hierarchical架構為基礎設計范式。而這種范式需要解決的問題就是如何在淺層stage中設計更高效的注意力機制計算來解決自注意力的二次復雜性帶來的計算負擔。是否有更優秀的計算模塊能夠代替SAM或者是MSA是我們后續需要繼續探索的路。2023年,更多的視覺Transformer模型和CNN基礎大模型被提出,它們在各大榜單上你追我趕,可以發現CV領域中CNN依舊有著一席之地。如果Transformer不能夠在CV領域完全替代cnn神經網絡,那么將兩者的優勢結合起來是否是更好的選擇?因此,我們希望SMT可以作為Hybrid CNN-Transformer方向新的baseline,推動該領域的進步和發展。

              穩定匹配策略提升Detection Transformer上限

              本文指出在DETR中存在的不穩定的匹配問題是由多重優化路徑導致的,而這個問題在DETR的one-to-one matching中會變得更加明顯。我們表明僅需要在分類損失中引入了位置度量就可以很好的優化DETR中存在的不穩定匹配問題。并且基于這一原則,我們通過引入了位置度量信息提出了兩個簡單有效并且可以適用于所有DETR系列模型的position-supervised loss和position-modulated matching cost設計。此外,我們提出了密集memory融合來增強編碼器和backbone的特征。

              我們在一系列DETR模型上對我們的方法有效性進行了驗證,其中我們的Stable-DINO以ResNet-50作為backbone的條件下在1x和2x標準settings下分別達到了50.4AP和51.5AP。并且我們的方法具有足夠強大的scalability,使用Swin-Large和Focal-Huge backbone的條件下Stable-DINO在COCO test-dev上分別達到了63.8AP和64.8AP的準確率。

              雖然我們的方法表現出了很好的性能,但我們只在類似 DETR 的圖像對象檢測和分割上驗證它。諸如 3D 對象檢測之類的更多探索將作為我們未來的工作。此外,我們只關注損失和匹配中的分類部分,而保留定位部分。對定位部分的分析也留作我們未來的工作。

              針對圖像復原模型的指紋保護技術

              深度學習已經成為解決計算機視覺問題的一個突出工具,在開源社區中共享預先訓練的DNN模型已經成為一種常見做法,許多公司和機構也提供付費的商用預訓練模型服務。這為不法使用者抄襲/竊取模型創造了強烈動機,例如使用惡意軟件感染或內部泄漏等方法來規避昂貴的訓練過程。因此,社區和公司都有強烈需求來保護其DNN模型的知識產權。保護DNN模型知識產權的一種流行方案是模型數字水印,它會侵入地嵌入被稱之為水印的特定信息到源模型中,并檢查該水印在可疑模型中的存在。然而,侵入式嵌入會修改模型權重,進而可能會影響模型的效用,在實踐中變得不那么理想。

              最近,一種非侵入式的方法稱為模型指紋技術受到了關注。與模型水印不同,指紋技術不會修改模型任何參數,其從模型中提取出稱為指紋的唯一特征來識別其所有權。通過比較源模型的指紋與可疑模型的指紋來驗證模型的所有權。現存的深度模型指紋方案大部分僅聚焦在圖像分類問題上,如使用決策邊界點作為指紋,針對深度圖像復原網絡的指紋方案尚未發表。圖像復原模型的應用已然十分廣泛,如圖像去噪、超分辨率、去模糊等。因此,為探究圖像復原任務中的非侵入式模型保護方法,我們首次提出了一種針對深度圖像復原模型的指紋方案。

              如下圖所示,我們方法整體步驟如下:

              Step1. 對源模型提取指紋;Step2. 對可疑模型提取指紋,可疑模型可能是違規獲取的被攻擊模型,也可能是無關的清白模型,指紋驗證的目的是能夠區分兩者;Step3. 驗證兩組指紋的相似性,通過對兩組指紋分別做特征提取,并根據在特征與統計層面上計算的偷竊概率來進行判斷。

              指紋提取的思路主要是基于模型反演的思想,固定模型優化圖像,找出一張恰好使得模型復原難度均衡的臨界圖像,圖示如下:

              方案優缺點

              對比模型水印方案,我們指紋方案最大的優點在于完全不會改變深度圖像復原網絡的參數,進而不會對模型性能產生任何影響,同時經實驗驗證能夠抵御常見的模型攻擊手段。但目前我們的指紋驗證方案需要獲取模型的梯度信息,也就是說對比之前的黑盒水印驗證流程,驗證方需要具備更高的權限。因此,優化驗證階段也將成為我們未來的方向。

              算法開源

              為了更好地服務開源社區,上述兩個算法的源代碼已經開源。另外,我們正在開發PAI上輕松訓練推理部署上述算法的框架,大概會在10月推出,敬請期待。

              Github地址:

              https://github.com/AFeng-x/SMT

              modelscope地址:

              https://modelscope.cn/models/PAI/SMT/summary

               

               

              阿里云機器學習平臺 PAI 多篇論文入選 ICCV 2023

              ● 論文標題:

              Scale-Aware Modulation Meet Transformer

              ● 論文作者:

              林煒豐、吳梓恒、陳佳禹、黃俊、金連文

              ● 論文PDF鏈接:

              https://arxiv.org/pdf/2307.08579.pdf

              ● 論文標題:

              Detection Transformer with Stable Matching

              ● 論文作者:

              劉世隆、任天和、陳佳禹、曾兆陽、張浩、李峰、李弘洋、黃俊、蘇航、朱軍、張磊

              ● 論文PDF鏈接:

              https://arxiv.org/pdf/2304.04742.pdf

              ● 論文標題:

              Fingerprinting Deep Image Restoration Models

              ● 論文作者:

              全宇暉、滕寰、許若濤、黃俊、紀輝

              ● 論文PDF鏈接:

              https://csyhquan.github.io/manuscript/23-iccv-Fingerprinting%20D

               
              分享到: 0
              收藏 0
               
              更多>同類資訊
              免責申明
              推薦資訊
              點擊排行
              最新資訊更多>
              最新供應更多>
              網站首頁  |  聯系方式  |  關于我們  |  問題解析  |  版權隱私  |  使用協議  |  網站地圖  |  排名推廣  |  廣告服務  |  積分換禮  |  網站留言  |  RSS訂閱  |  違規舉報  |  粵ICP備1207862號

              中國智能化網(zgznh®)--引領工業智能化產業發展 共享智能化+優質平臺

              版權所有:深圳市智控網絡有限公司 學術指導:深圳市智能化學會

              粵ICP備12078626號

              深公網安備案證字第 4403101901094 號 | 粵公網安備 44030702001206號

               
              主站蜘蛛池模板: 亚洲第一综合天堂另类专| 久久久久久综合一区中文字幕| 国产成人综合网在线观看| 久久香综合精品久久伊人| 亚洲综合另类小说色区| 伊人丁香狠狠色综合久久| 亚洲va欧美va国产综合| 国产人成精品综合欧美成人| 婷婷国产天堂久久综合五月| 亚洲欧美另类成人综合图片| 狠色狠色狠狠色综合久久| 狠狠色伊人久久精品综合网| 久久综合久久自在自线精品自| 亚洲伊人成无码综合网 | 国产成人综合久久久久久| 综合久久精品色| 欧美αv日韩αv另类综合| 狠狠色综合色区| 丁香五月婷婷综合激情在线| 人人狠狠综合久久亚洲88| 国产成人综合久久精品红| 激情97综合亚洲色婷婷五| 婷婷丁香五月天综合东京热| 国产综合免费精品久久久| 久久综合亚洲色HEZYO国产| 欧美久久综合九色综合| 天天av天天翘天天综合网| 婷婷综合久久狠狠色99h| 狠狠色婷婷七月色综合| 亚洲伊人成无码综合网 | 激情综合婷婷丁香五月蜜桃| 国产欧美综合一区二区三区| 久久婷婷五月综合97色| 久久综合久久伊人| 国产精品日韩欧美久久综合| 91精品国产色综合久久| 亚洲国产综合无码一区| 欧美日韩综合精品| 色综合.com| 色综合天天综合给合国产| 亚洲AV综合色一区二区三区|