Xiaoguang TU Zhi HE Gui FU Jianhua LIU Mian ZHONG Chao ZHOU Xia LEI Juhang YIN Yi HUANG Yu WANG
Yingying LU Cheng LU Yuan ZONG Feng ZHOU Chuangao TANG
Jialong LI Takuto YAMAUCHI Takanori HIRANO Jinyu CAI Kenji TEI
Wei LEI Yue ZHANG Hanfeng XIE Zebin CHEN Zengping CHEN Weixing LI
David CLARINO Naoya ASADA Atsushi MATSUO Shigeru YAMASHITA
Takashi YOKOTA Kanemitsu OOTSU
Xiaokang Jin Benben Huang Hao Sheng Yao Wu
Tomoki MIYAMOTO
Ken WATANABE Katsuhide FUJITA
Masashi UNOKI Kai LI Anuwat CHAIWONGYEN Quoc-Huy NGUYEN Khalid ZAMAN
Takaharu TSUBOYAMA Ryota TAKAHASHI Motoi IWATA Koichi KISE
Chi ZHANG Li TAO Toshihiko YAMASAKI
Ann Jelyn TIEMPO Yong-Jin JEONG
Haruhisa KATO Yoshitaka KIDANI Kei KAWAMURA
Jiakun LI Jiajian LI Yanjun SHI Hui LIAN Haifan WU
Gyuyeong KIM
Hyun KWON Jun LEE
Fan LI Enze YANG Chao LI Shuoyan LIU Haodong WANG
Guangjin Ouyang Yong Guo Yu Lu Fang He
Yuyao LIU Qingyong LI Shi BAO Wen WANG
Cong PANG Ye NI Jia Ming CHENG Lin ZHOU Li ZHAO
Nikolay FEDOROV Yuta YAMASAKI Masateru TSUNODA Akito MONDEN Amjed TAHIR Kwabena Ebo BENNIN Koji TODA Keitaro NAKASAI
Yukasa MURAKAMI Yuta YAMASAKI Masateru TSUNODA Akito MONDEN Amjed TAHIR Kwabena Ebo BENNIN Koji TODA Keitaro NAKASAI
Kazuya KAKIZAKI Kazuto FUKUCHI Jun SAKUMA
Yitong WANG Htoo Htoo Sandi KYAW Kunihiro FUJIYOSHI Keiichi KANEKO
Waqas NAWAZ Muhammad UZAIR Kifayat ULLAH KHAN Iram FATIMA
Haeyoung Lee
Ji XI Pengxu JIANG Yue XIE Wei JIANG Hao DING
Weiwei JING Zhonghua LI
Sena LEE Chaeyoung KIM Hoorin PARK
Akira ITO Yoshiaki TAKAHASHI
Rindo NAKANISHI Yoshiaki TAKATA Hiroyuki SEKI
Chuzo IWAMOTO Ryo TAKAISHI
Chih-Ping Wang Duen-Ren Liu
Yuya TAKADA Rikuto MOCHIDA Miya NAKAJIMA Syun-suke KADOYA Daisuke SANO Tsuyoshi KATO
Yi Huo Yun Ge
Rikuto MOCHIDA Miya NAKAJIMA Haruki ONO Takahiro ANDO Tsuyoshi KATO
Koichi FUJII Tomomi MATSUI
Yaotong SONG Zhipeng LIU Zhiming ZHANG Jun TANG Zhenyu LEI Shangce GAO
Souhei TAKAGI Takuya KOJIMA Hideharu AMANO Morihiro KUGA Masahiro IIDA
Jun ZHOU Masaaki KONDO
Tetsuya MANABE Wataru UNUMA
Kazuyuki AMANO
Takumi SHIOTA Tonan KAMATA Ryuhei UEHARA
Hitoshi MURAKAMI Yutaro YAMAGUCHI
Jingjing Liu Chuanyang Liu Yiquan Wu Zuo Sun
Zhenglong YANG Weihao DENG Guozhong WANG Tao FAN Yixi LUO
Yoshiaki TAKATA Akira ONISHI Ryoma SENDA Hiroyuki SEKI
Dinesh DAULTANI Masayuki TANAKA Masatoshi OKUTOMI Kazuki ENDO
Kento KIMURA Tomohiro HARAMIISHI Kazuyuki AMANO Shin-ichi NAKANO
Ryotaro MITSUBOSHI Kohei HATANO Eiji TAKIMOTO
Genta INOUE Daiki OKONOGI Satoru JIMBO Thiem Van CHU Masato MOTOMURA Kazushi KAWAMURA
Hikaru USAMI Yusuke KAMEDA
Yinan YANG
Takumi INABA Takatsugu ONO Koji INOUE Satoshi KAWAKAMI
Fengshan ZHAO Qin LIU Takeshi IKENAGA
Naohito MATSUMOTO Kazuhiro KURITA Masashi KIYOMI
Tomohiro KOBAYASHI Tomomi MATSUI
Shin-ichi NAKANO
Ming PAN
本文重點在於改進BiSeNet v2雙邊分支影像分割網路結構,增強其對空間細節的學習能力及整體影像分割精度。提出了一種稱為「BiconvNet」的修改網路。首先,為了更有效地提取淺層空間細節,提出了平行串聯條帶和擴張(PCSD)卷積模組,並用於提取細節分支中的局部特徵和周圍上下文特徵。接下來,利用深度可分離卷積的輕量級能力和ConvNet的高性能來重建語義分支,以便更有效地學習深層高級語義特徵。最後,對BiSeNet v2的雙邊引導聚合層進行微調,使得細部分支和語意分支輸出的特徵圖能夠更好地融合。實驗部分討論了條紋卷積和不同尺寸的空卷積對影像分割精度的貢獻,並與Conv2d卷積、CG卷積和CCA卷積等常見卷積進行了比較。實驗證明,與普通卷積相比,本文提出的PCSD卷積模組在Cityscapes資料集的所有類別中具有最高的分割精度。 BiConvNet 比 BiSeNet v9.39 網路實現了 2% 的精度提升,模型參數僅略微增加了 1.18M。在驗證集上實現了 68.75% 的 mIoU 準確率。此外,透過與近年來常用的自動駕駛影像分割演算法的比較實驗,BiConvNet在Cityscapes和BDD100K資料集上的分割精度上表現出了強大的競爭優勢。
Yuan LI Tingting HU Ryuji FUCHIKAMI Takeshi IKENAGA
1 毫秒 (1-ms) 視覺系統在工廠自動化和機器人等不同領域中越來越受到關注,因為超低延遲可確保無縫、及時的反應。超像素分割是減少後續處理的影像基元數量的關鍵預處理。最近,人們越來越重視利用基於深度網路的演算法來追求卓越的效能並更好地整合到其他深度網路任務中。超像素採樣網路 (SSN) 採用深度網路進行特徵生成,並採用可微 SLIC 進行超像素生成。 SSN以少量的參數實現了高性能。然而,由於最後一層是中間結果的聚合,在 FPGA 上實現 SSN 以獲得超低延遲面臨挑戰。為了解決這個限制,本文提出了一個用於 FPGA 實現的聚合管線結構。對於每個中間結果,最終層被分解為單獨的最終層。這種架構調整消除了對記憶體儲存中間結果的需求。同時,所提出的結構利用分解層來促進具有像素流輸入的管線結構,以實現超低延遲。為了配合管線結構,提出了分層儲存架構。每個最終層都有專用的內存來存儲超像素中心信息,允許從內存中讀取和計算值而不會發生衝突。最後每一層的計算結果都會被累積起來,當流到達最後一層時就得到每個像素點的結果。評估結果表明,邊界召回率和欠分割錯誤仍然與 SSN 相當,平均標籤一致性比 SSN 提高了 0.035。從硬體效能的角度來看,所提出的系統處理 1000 FPS 影像,延遲為 0.947 ms/幀。
現代儲存裝置(例如 DRAM)很容易因操作過程中意外的位元翻轉而發生錯誤。由於記憶體錯誤嚴重影響記憶體中的鍵值儲存 (KVS),因此正在探索針對記憶體錯誤進行強化的軟體機制。然而,由於記憶體錯誤處理程式碼的特點,很難有效地測試記憶體錯誤處理程式碼:程式碼是事件驅動的,處理程序依賴記憶體對象,記憶體中的KVS管理著巨大記憶體空間中的各種對象。本文介紹了 記憶力指數 支援記憶體中 KVS 的記憶體錯誤處理程序的執行時間測試。我們的方法在記憶體物件層級執行記憶體錯誤的軟體故障注入,以觸發目標處理程序,同時在相同的運行狀態上平穩地執行測試。為了展示 MemFI 的有效性,我們將錯誤處理機制整合到現實世界的記憶體 KVS、memcached 1.6.9 和 Redis 6.2.7 中,並使用 MemFI 原型檢查它們的行為。結果表明,基於 MemFI 的運行時測試使我們能夠檢查錯誤處理機制的行為。我們還透過將其與基於試驗模型的其他故障注入方法進行比較來展示其效率。
多焦點影像融合涉及組合同一場景的部分聚焦影像以創建全焦點影像。針對現有多焦點影像融合演算法基準影像難以取得以及卷積神經網路過於關注局部區域的問題,提出一種局部與全局特徵編碼相結合的融合演算法。最初,我們設計了兩個自監督圖像重建任務,並透過多任務學習訓練編碼器-解碼器網路。隨後,在編碼器內,我們將密集連接模組與 PS-ViT 模組合併,使網路能夠在特徵提取過程中利用局部和全局資訊。最後,為了提高模型的整體效率,對每個任務應用不同的損失函數。為了保留原始影像中更穩健的特徵,在融合階段採用空間頻率來獲得融合影像的特徵圖。實驗結果表明,與其他十二種著名演算法相比,我們的方法在客觀評估中表現出良好的融合表現。選定的 0.28 個評估指標中有 XNUMX 個指標的改善幅度超過 XNUMX%。此外,它在主觀上呈現出優越的視覺效果。
Nan WU Xiaocong LAI Mei CHEN Ying PAN
隨著語意網的發展,越來越多的研究者開始利用本體技術來建構領域本體。由於沒有統一的建構標準,導致本體異構。本體匹配方法可以融合異構本體,實現知識之間的互通並關聯到更多相關的語義資訊。在本體存在差異的情況下,如何減少錯誤匹配和不成功匹配是需要解決的關鍵問題。而且,隨著本體數量的增加,本體之間的語意關係變得越來越複雜。然而,目前僅發現概念之間名稱相似性的方法已經不夠了。為此,本文提出一種基於語意關聯的本體匹配方法。透過現有的語義知識發現準確的匹配對,然後根據上下文結構的特徵挖掘概念之間潛在的語義關聯。此匹配方法能夠基於可靠的知識來更好地進行配對工作。此外,本文還引入了機率邏輯修復方法,可以檢測並修復匹配結果的衝突,增強匹配結果的可用性和可靠性。實驗結果表明,該方法有效提高了本體之間的匹配質量,節省了修復錯誤匹配對的時間。此外,與現有的本體匹配系統相比,此方法具有更好的穩定性。
Keitaro NAKASAI Shin KOMEDA Masateru TSUNODA Masayuki KASHIMA
為了自動測量開發人員的腦力負荷,現有研究使用了腦電波和心率等生物辨識措施。然而,開發人員在測量時通常需要配備某些設備,因此可能會造成體力負擔。在這項研究中,我們評估了基於鼻部皮膚溫度(NST)的非接觸式生物辨識測量的可行性。在實驗中,所提出的生物辨識措施比非生物辨識措施更準確。
白盒加密實作通常使用遮罩和改組作為針對金鑰提取攻擊的對策。為了對抗這些防禦,開發了高階微分計算分析(HO-DCA)及其變體。這些方法旨在無需逆向工程即可突破這些對策。然而,這些非侵入性攻擊成本高昂,並且可以透過更新掩碼和洗牌技術來阻止。本文介紹了一種簡單的二元注入攻擊,恰當地命名為 清除並返回,旨在繞過白盒加密中使用的高級遮罩和洗牌防禦。該攻擊涉及注入少量彙編程式碼,這可以有效禁用運行時隨機來源。這種隨機性的喪失暴露了白盒實現中不受保護的查找值,使它們容易受到簡單統計分析的影響。在針對開源白盒加密實現的實驗中,劫持全局偏移表(GOT)中的條目或函數呼叫的攻擊策略顯示了規避運行時對策的有效性。
Nat PAVASANT Takashi MORITA Masayuki NUMAO Ken-ichi FUKUI
我們提出了一種透過使用核密度估計來預處理時間點過程的向量自回歸(VAR)建模中使用的數據的過程。例如,點過程資料的向量自迴歸建模被用於因果推理。 VAR模型將時間軸離散成小窗口,並根據每個窗口中事件的存在建立時間序列,然後根據事件的歷史記錄在下一個時間步對事件的存在進行建模。問題在於,要獲得具有高時間解析度的較長歷史記錄,需要大量窗口,因此也需要大量模型參數。我們提出了局部密度估計過程,該過程不使用二元存在作為模型的輸入,而是執行事件歷史的核密度估計,並將估計離散化以用作輸入。這使我們能夠減少模型參數的數量,尤其是在稀疏資料中。我們對稀疏泊松過程的實驗表明,該過程極大地提高了模型預測性能。
Takahito YOSHIDA Takaharu YAGUCHI Takashi MATSUBARA
準確地模擬物理系統在各個領域都至關重要。近年來,深度學習已被用於透過從數據中學習來自動建立此類系統的模型。其中一個方法是神經常微分方程(神經 ODE),它將神經網路的輸出視為系統狀態的時間導數。然而,雖然這種方法和相關方法已經顯示出希望,但它們的訓練策略仍需要進一步發展。受到數值分析中誤差分析技術的啟發,以建模誤差取代數值誤差,我們提出了誤差分析策略來解決這個問題。因此,我們的策略可以捕捉長期誤差,從而提高長期預測的準確性。
Congcong FANG Yun JIN Guanlin CHEN Yunfan ZHANG Shidang LI Yong MA Yue XIE
目前,語音情緒辨識中越來越多的任務依賴語音和文字特徵的分析。然而,探索利用 GPT-3 等大型語言模型來增強情緒辨識的潛力的研究仍然很少。在本次研究中,我們利用GPT-3 模型的強大功能從轉錄文本中提取語義訊息,產生1536 維的文本模態特徵。結合。我們的研究結果表明,所提出的方法在 IEMOCAP 中的四個情緒類別中實現了 1536% 的加權準確度,這凸顯了透過整合大型語言模型促進了情感識別準確度的顯著提高。
Shuoyan LIU Chao LI Yuxin LIU Yanqiu WANG
自動扶梯是公共場所不可或缺的設施。它們在帶給人們便利的同時,異常事故也可能導致嚴重後果。 Yolo 是一個即時偵測人類行為的功能。然而,此模型對於小目標的準確率較低且漏失率較高。為此,本文提出小目標高效能YOLO(SH-YOLO)模型來偵測自動扶梯的異常行為。 SH-YOLO模型首先透過注意力機制增強主幹網路。隨後,加入小目標偵測層以增強對小目標關鍵點的偵測。最後,將卷積和 SPPF 分別替換為區域動態感知深度可分離卷積(DR-DP-Conv)和空洞空間金字塔池(ASPP)。實驗結果表明,所提出的模型能夠準確、穩健地檢測現實世界自動扶梯場景中的異常情況。
Lihan TONG Weijia LI Qingxia YANG Liyuan CHEN Peng CHEN
我們展示了 Ksformer,利用多尺度鍵選擇路由注意(MKRA)透過多通道、多尺度視窗和 top-k 算子來智慧選擇關鍵區域,並使用輕量級頻率處理模組(LFPM)來增強高效能頻率特徵,在測試中優於其他去霧方法。