圖1 期刊,、論文題目與作者信息
11月28日,,我校數(shù)學(xué)學(xué)院李晨博士與鄭賢偉副教授在人工智能領(lǐng)域頂級期刊IEEE Transactions on Neural Networks and Learning Systems (TNNLS) 發(fā)表題為“Tiny Data Is Sufficient: A Generalizable CNN Architecture for Temporal Domain Long Sequence Identification”的學(xué)術(shù)論文,佛山大學(xué)是該論文的第一單位,。李晨博士為第一作者,,鄭賢偉副教授為通訊作者。TNNLS期刊是國際電氣與電子工程師協(xié)會(IEEE)旗下的人工智能領(lǐng)域頂級期刊,、中科院SCI一區(qū)TOP期刊,,2024年影響因子為10.2。
該文首次提出可泛化卷積神經(jīng)網(wǎng)絡(luò) (GeCNN) 架構(gòu),,并應(yīng)用于超小樣本場景下的時(shí)域長序列識別任務(wù),。該架構(gòu)包含三個(gè)組件:非線性卷積網(wǎng)絡(luò) 、選擇性卷積網(wǎng)絡(luò),、多重池化網(wǎng)絡(luò),。其中,非線性卷積網(wǎng)絡(luò)通過可配置的非線性卷積器增強(qiáng)序列特征的提取效率,,并顯著提升模型的準(zhǔn)確性,;選擇性卷積網(wǎng)絡(luò)通過隨機(jī)子序列選擇算法降低模型對大樣本訓(xùn)練數(shù)據(jù)的需求,作者同時(shí)提出并證明了均一步長采樣定理為該方法提供理論支持,;多重池化網(wǎng)絡(luò)將八種池化輸出按通道結(jié)合,,并緩解單一池化操作中存在的統(tǒng)計(jì)信息丟失問題。與現(xiàn)有的深度網(wǎng)絡(luò)相比,,該文提出的 GeCNN 架構(gòu)可在淺層網(wǎng)絡(luò)與超小樣本場景下顯著提升時(shí)域長序列識別模型的準(zhǔn)確率,,初步擺脫了傳統(tǒng)深度學(xué)習(xí)模型對大樣本訓(xùn)練數(shù)據(jù)的依賴,,同時(shí)解決了經(jīng)典卷積運(yùn)算在時(shí)域長序列分析任務(wù)中存在的特征表示能力有限與特征提取效果欠佳的問題。
圖2 GeCNN架構(gòu)由輸入模塊(Input),、GeCNN核心模塊(GeCNN Core),、全連接模塊(FC)組成
稿件來源:數(shù)學(xué)學(xué)院
通訊員: 劉小華
Copyright 佛山大學(xué) 2024 . All Rights Reserved.
新版網(wǎng)站試運(yùn)行中,如您發(fā)現(xiàn)問題請聯(lián)系我們[email protected],,感謝您的關(guān)注,!