熟女俱乐部五十路二区av,又爽又黄禁片视频1000免费,国产卡一卡二卡三无线乱码新区,中文无码一区二区不卡αv,中文在线中文a

"); //-->

博客專欄

EEPW首頁 > 博客 > Fast YOLO:用于實(shí)時嵌入式目標(biāo)檢測(附論文下載)

Fast YOLO:用于實(shí)時嵌入式目標(biāo)檢測(附論文下載)

發(fā)布人:CV研究院 時間:2021-11-10 來源:工程師 發(fā)布文章

1.png

目標(biāo)檢測被認(rèn)為是計算機(jī)視覺領(lǐng)域中最具挑戰(zhàn)性的問題之一,因?yàn)樗婕皥鼍爸袑ο蠓诸惡蛯ο蠖ㄎ坏慕M合。今天分享這個框架有點(diǎn)陳舊,但精髓!

一、前言

目標(biāo)檢測被認(rèn)為是計算機(jī)視覺領(lǐng)域中最具挑戰(zhàn)性的問題之一,因?yàn)樗婕皥鼍爸袑ο蠓诸惡蛯ο蠖ㄎ坏慕M合。最近,與其他方法相比,深度神經(jīng)網(wǎng)絡(luò) (DNN) 已被證明可以實(shí)現(xiàn)卓越的目標(biāo)檢測性能,其中YOLOv2是基于DNN的最先進(jìn)技術(shù)之一。

2.jpg

目標(biāo)檢測方法在速度和準(zhǔn)確性方面。盡管YOLOv2可以在強(qiáng)大的GPU上實(shí)現(xiàn)實(shí)時性能,但在計算能力和內(nèi)存有限的嵌入式計算設(shè)備上利用這種方法進(jìn)行視頻中的實(shí)時目標(biāo)檢測仍然非常具有挑戰(zhàn)性。


二、概要

在今天分享中,有研究者提出了一個名為Fast YOLO的新框架,這是一個快速的You Only Look Once框架,它可以加速YOLOv2以便能夠以實(shí)時方式在嵌入式設(shè)備上執(zhí)行視頻中的目標(biāo)檢測。

首先,利用進(jìn)化深度智能框架來進(jìn)化YOLOv2網(wǎng)絡(luò)架構(gòu),并產(chǎn)生一個優(yōu)化的架構(gòu)(這里稱為O-YOLOv2),其參數(shù)減少了2.8倍,IOU下降了約2%。為了在保持性能的同時進(jìn)一步降低嵌入式設(shè)備的功耗,在提出的Fast YOLO框架中引入了一種運(yùn)動自適應(yīng)推理方法,以降低基于時間運(yùn)動特性的O-YOLOv2深度推理的頻率。實(shí)驗(yàn)結(jié)果表明,與原始YOLOv2相比,所提出的Fast YOLO框架可以將深度推理的數(shù)量平均減少38.13%,視頻中目標(biāo)檢測的平均加速約為3.3倍,導(dǎo)致Fast YOLO運(yùn)行在Nvidia Jetson TX1嵌入式系統(tǒng)上平均約為18FPS。

三、新框架

3.png

提出的Fast YOLO框架分為兩個主要部分:i)優(yōu)化的YOLOv2架構(gòu),以及ii運(yùn)動自適應(yīng)推理(見上圖)。對于每個視頻幀,由帶有參考幀的視頻幀組成的圖像堆棧被傳遞到1×1卷積層。卷積層的結(jié)果是一個運(yùn)動概率圖,然后將其送入運(yùn)動自適應(yīng)推理模塊以確定是否需要深度推理來計算更新的類概率圖。正如介紹中提到的,主要目標(biāo)是引入一個視頻中的目標(biāo)檢測框架,該框架可以在嵌入式設(shè)備上更快地執(zhí)行,同時減少資源使用,從而顯著降低功耗。通過利用這種運(yùn)動自適應(yīng)推理方法,深度推理的頻率大大降低,并且僅在必要時執(zhí)行。

4.jpg

深度神經(jīng)網(wǎng)絡(luò)的主要挑戰(zhàn)之一,尤其是在將它們用于嵌入式場景時,是網(wǎng)絡(luò)架構(gòu)設(shè)計。設(shè)計過程通常由人類專家執(zhí)行,他探索大量網(wǎng)絡(luò)配置,以在建模精度和參數(shù)數(shù)量方面為特定任務(wù)找到最佳架構(gòu)。尋找優(yōu)化的網(wǎng)絡(luò)架構(gòu)目前通常作為超參數(shù)優(yōu)化問題來解決,但這種解決問題的方法非常耗時,而且大多數(shù)方法對于大型網(wǎng)絡(luò)架構(gòu)來說要么在計算上難以處理,要么導(dǎo)致次優(yōu)解決方案不夠嵌入式使用。

5.jpg

例如,超參數(shù)優(yōu)化的一種常用方法是網(wǎng)格搜索,其中檢查大量不同的網(wǎng)絡(luò)配置,然后選擇最佳配置作為最終的網(wǎng)絡(luò)架構(gòu)。然而,為視頻中的目標(biāo)檢測而設(shè)計的深度神經(jīng)網(wǎng)絡(luò)(如YOLOv2)具有大量參數(shù),因此在計算上難以搜索整個參數(shù)空間以找到最佳解決方案。

6.jpg

因此,研究者沒有利用超參數(shù)優(yōu)化方法來獲得基于YOLOv2的最佳網(wǎng)絡(luò)架構(gòu),而是利用專為提高網(wǎng)絡(luò)效率而設(shè)計的網(wǎng)絡(luò)優(yōu)化策略。特別是,研究者利用進(jìn)化深度智能框架來優(yōu)化網(wǎng)絡(luò)架構(gòu),以合成滿足嵌入式設(shè)備內(nèi)存和計算能力限制的深度神經(jīng)網(wǎng)絡(luò)。

7.jpg

為了進(jìn)一步降低處理器單元的功耗,用于視頻中的嵌入式目標(biāo)檢測,研究者利用了這樣一個事實(shí),即并非所有捕獲的視頻幀都包含唯一信息,因此不需要對所有幀進(jìn)行深度推理。因此,研究者引入了一種運(yùn)動自適應(yīng)推理方法來確定特定視頻幀是否需要深度推理。通過在必要時使用前面介紹的O-YOLOv2網(wǎng)絡(luò)進(jìn)行深度推理,這種運(yùn)動自適應(yīng)推理技術(shù)可以幫助框架減少對計算資源的需求,從而顯著降低功耗系統(tǒng)以及處理速度的提高。

四、實(shí)驗(yàn)

原始YOLOv2網(wǎng)絡(luò)架構(gòu)與優(yōu)化后的YOLOv2之間的架構(gòu)和性能比較

8.jpg

提出的Fast YOLO、O-YOLOv2和原始YOLOv2在Nvidia Jetson TX1嵌入式系統(tǒng)上運(yùn)行的平均運(yùn)行時性能和深度推理頻率。

9.jpg

*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點(diǎn),如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞: 深度學(xué)習(xí)

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉