博客專欄

        EEPW首頁 > 博客 > 霸榜第一框架:工業檢測,基于差異和共性的半監督方法用于圖像表面缺陷檢測

        霸榜第一框架:工業檢測,基于差異和共性的半監督方法用于圖像表面缺陷檢測

        發布人:CV研究院 時間:2023-06-09 來源:工程師 發布文章
        目前霸榜第一,99.56%,一秒31.34張圖片。


        1概括


        半監督框架下,研究者提出了一種端到端的基于內存的分割網絡(MemSeg)來檢測工業產品的表面缺陷。考慮到同一生產線產品的類內差異較小從差異和共性的角度出發,MemSeg引入了人工模擬的異常樣本和記憶樣本來輔助網絡的學習。在訓練階段,MemSeg顯式學習正常和模擬異常圖像之間的潛在差異,以獲得魯棒的分類超平面。同時,受人類記憶機制的啟發,MemSeg使用內存池來存儲正常樣本的一般模式。

        圖片

        通過比較輸入樣本與內存池中的內存樣本的異同,對異常區域進行有效猜測;在推理階段,MemSeg直接以端到端的方式確定輸入圖像的異常區域。通過實驗驗證,MemSeg在MVTec AD數據集上實現了最先進的(SOTA)性能,圖像級和像素級的AUC得分分別為99.56%98.84%。此外,MemSeg得益于端到端、直截了當(straightforward)網絡結構,在推理速度上也有明顯優勢,更好地滿足工業場景的實時性要求。

        2

         背景


        工業場景下的產品表面異常檢測對于工業智能的發展至關重要。 表面缺陷檢測是在圖像中定位異常區域的問題,例如劃痕和污跡。但在實際應用中,由于異常樣本的概率低且異常形式多樣,傳統監督學習的異常檢測難度更大。因此,基于半監督技術的表面缺陷檢測方法在實際應用中具有更顯著的優勢,在訓練階段只需要正常樣本。具體來說,從差異的角度來看,類似于自監督學習,MemSeg在訓練階段引入了人工模擬的異常,使模型有意識地區分正常和非正常,而不要求模擬的異常與真實場景中的一致。緩解了半監督學習只能使用正常樣本的不足,讓模型獲得了更魯棒的決策邊界。MemSeg使用正常和模擬異常圖像完成模型訓練,直接判斷輸入圖像的異常區域,在推理階段無需任何輔助任務。下圖就顯示了在訓練和推理階段的數據使用情況。

        圖片

        同時,從共性的角度,MemSeg引入了一個內存池來記錄正常樣本的一般模式。在模型的訓練和推理階段,比較輸入樣本和記憶池中記憶樣本的異同,為異常區域的定位提供更有效的信息。此外,為了更有效地協調來自內存池的信息和輸入圖像,MemSeg引入了多尺度特征融合模塊和新穎的空間注意力模塊,大大提高了模型的性能。

        3

         新框架分析


        圖片上圖就是MemSeg整體框架圖。MemSeg基于U-Net架構,使用預訓練的ResNet18作為編碼器。MemSeg從差異和共性的角度出發,引入模擬異常樣本和記憶模塊,以更有方向性的方式輔助模型學習,從而以端到端的方式完成半監督表面缺陷任務。同時,為了將記憶信息與輸入圖像的高層特征充分融合,MemSeg引入了多尺度特征融合模塊(MSFF Module)和新穎的空間注意力模塊,大大提高了模型精度異常定位。
        Anomaly Simulation Strategy在工業場景中,異常以多種形式出現,在進行數據收集時不可能將其全部覆蓋,這限制了使用監督學習方法進行建模。然而,在半監督框架中,僅使用正常樣本而不與非正常樣本進行比較不足以讓模型了解什么是正常模式。在今天分享中,受DRAEM的啟發,研究者就設計了一種更有效的策略來模擬異常樣本并在訓練過程中引入它們以完成自監督學習。MemSeg通過比較非正態模式來總結正態樣本的模式,以減輕半監督學習的弊端。如下圖所示,提出的異常模擬策略主要分為三個步驟。

        圖片

        1. 二維柏林噪聲P二值化后生成Mp,正常圖I二值化后生成MI,二者結合生成M,這種處理是為了讓生成的異常圖與真實異常圖相似。

        2. 利用公式做正常圖和M的融合使接近真實異常圖:

        圖片

        1. 將M反轉(黑變白,白變黑),與I做元素積,與I'做元素和,生成IA。

        通過上述異常模擬策略,從紋理和結構兩個角度獲取模擬異常樣本,并且大部分異常區域都生成在目標前景上,最大限度地提高了模擬異常樣本與真實異常樣本的相似度。

        圖片

        Memory Module

        選N個正常圖經ResNet作為存儲的信息,凍結ResNet的block1/2/3的參數保證高維特征與記憶信息統一,其余部分仍可訓練。訓練及推理階段,通過下公式比較距離:

        圖片

        N個存儲信息中,每個包括塊1/2/3生成的三張特征圖,將輸入的三張特征圖與N中所有的三個特征圖比較找出距離最小的N中的三張特征圖。將輸入的三張特征圖與和其距離最小的三張特征圖連接形成CI。后經多尺度特征融合塊,經U-Net跳躍連接進入****。

        圖片

        Spatial Attention Maps

        涉及到空間注意力塊,由下公式為三個特征圖增加權重,降低特征冗余:

        圖片

        圖片

        Multi-Scale Feature Fusion Module

        考慮到它是通道維度上兩種信息的串聯,并且來自編碼器的不同位置,具有不同的語義信息和視覺信息,因此使用通道注意力CA-Block和多尺度策略進行特征融合。

        Training Constraints(訓練損失)

        L1損失和focal損失。L1比L2保留更多邊緣信息,focal緩解樣本不平衡問題,使模型專注于分割本身而不是樣本的情況。


        4

         實驗及可視化


        圖片

        可視化:

        圖片

        圖片

        圖片


        *博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。



        關鍵詞: AI

        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 出国| 乐平市| 福海县| 东辽县| 陇南市| 兴仁县| 平山县| 临漳县| 邵阳市| 塘沽区| 邵阳县| 吐鲁番市| 鹤岗市| 广安市| 昌黎县| 尚志市| 千阳县| 香港| 和平区| 东源县| 湖南省| 团风县| 固镇县| 余姚市| 北辰区| 定结县| 铜鼓县| 德惠市| 军事| 揭阳市| 阿尔山市| 涞水县| 邵阳市| 基隆市| 上林县| 云龙县| 阆中市| 本溪市| 沾益县| 化隆| 寻乌县|