公務員期刊網(wǎng) 論文中心 正文

    目標檢測分類系統(tǒng)設計探究

    前言:想要寫出一篇引人入勝的文章?我們特意為您整理了目標檢測分類系統(tǒng)設計探究范文,希望能給你帶來靈感和參考,敬請閱讀。

    目標檢測分類系統(tǒng)設計探究

    摘要:隨著科技水平的不斷發(fā)展,機器代替人進行簡單而繁瑣的工作是發(fā)展趨勢。綜合考慮能夠適用于各種不同場面的分類工作的潛力,本文設計了一種能夠通過攝像頭與機械臂對圖像物品進行捕捉、抓取和分類的一體式智能交互機器人。

    關鍵詞:視覺跟蹤;圖像識別;物品分類;深度學習;YOLOv3

    1引言

    目前,目標檢測算法主要包括傳統(tǒng)目標檢測技術和深度學習目標檢測技術。傳統(tǒng)的識別技術主要采用滑動窗口實現(xiàn)圖片內(nèi)目標搜索,檢測精度較低,具有較差的魯棒性。YOLOv3是一種快速、準確的深度學習目標檢測技術[1-2],在檢測速度與檢測精度方面具有較好的綜合性能,因此被廣泛應用于近景目標檢測。本文提出一種基于樹莓派的智能交互機器人控制系統(tǒng)設計,通過樹莓派搭載攝像頭構成機器人的視覺交互系統(tǒng),利用YOLOv3進行目標識別,將深度學習算法與智能交互機器人技術相結合,具有一定的創(chuàng)新性和研究價值。

    2系統(tǒng)整體設計

    2.1系統(tǒng)主體結構

    系統(tǒng)主體結構包括以下部分:樹莓派攝像頭、樹莓派、STM32系統(tǒng)板、六舵機械臂、穩(wěn)壓模塊、驅(qū)動模塊、電機、車模。

    2.2工作原理

    系統(tǒng)的整體控制結構如圖1所示。樹莓派通過YOLOv3識別攝像頭讀取的圖片,識別物體所在位置并通過串口發(fā)送給STM32。STM32單片機再控制小車進行運動,通過多次的識別及運動后,當物體所在位置在機械臂可以捕捉的范圍內(nèi)時,小車停止運動,控制機械臂對其進行捕捉。捕捉成功后,機械臂再把物體擺放在給定的分類區(qū),完成一次捕捉分類任務。

    3系統(tǒng)結構設計

    智能交互機器人由車體、直流電機與驅(qū)動模塊、控制與信息處理裝置、機械臂等部分組成,機械臂采用舵機驅(qū)動,機械結構如圖2所示。機器人的總體結構設計目標如下:(1)在無人為外界因素干預的情況下,智能交互機器人能高效地自主運行。(2)智能交互機器人的機械結構和控制系統(tǒng)采用模塊化設計,便于拆卸、修理和維護。(3)機械臂的設計采用串聯(lián)結構,不同關節(jié)不會相互影響,可以完成較好的傳動精度和傳動穩(wěn)定的設計要求。大扭矩舵機保證轉動精度,單舵機控制單關節(jié),使得機械臂動作簡單,控制容易。(4)通過PWM同時驅(qū)動四臺直流電機可對電機進行直接控制。輸入信號采用光耦合進行隔離,且具有欠壓保護功能。同時設計了靜電泄放回路,充分滿足電機驅(qū)動要求。(5)主控采用STM32F103微處理和樹莓派4B,可以滿足系統(tǒng)的控制需要。(6)車體采用鋁制底盤,絕緣性較好,重心低,載重能力強,保證智能交互機器人機械結構的小巧輕便以及在運行時性能的穩(wěn)定。

    4系統(tǒng)軟件設計

    4.1軟件流程

    程序流程圖如圖3所示。系統(tǒng)軟件設計采用模塊化程序設計方法,包括系統(tǒng)初始化程序、攝像頭識別程序、機械臂控制程序和灰度循跡程序。樹莓派開機后首先進行系統(tǒng)初始化操作,然后運行相應程序文件。STM32單片機控制直流電機通過灰度循跡來到目標識別區(qū),隨后樹莓派運行基于YOLOv3的深度學習圖像識別算法依次識別目標物體。當檢測到目標物體后,樹莓派通過串口發(fā)送抓取命令,控制機械臂完成抓取動作,并將物品擺放在預定分類區(qū)域,隨后智能交互機器人回到初始位置。

    4.2串口與機械臂控制程序設計

    樹莓派與STM32單片機之間采用串口通信進行數(shù)據(jù)收發(fā),樹莓派識別出目標位置信息并以字符串的形式通過串口發(fā)送給STM32單片機。通過不同的指令完成車體不同的動作,實現(xiàn)上下位機的通訊與系統(tǒng)協(xié)調(diào)工作。智能交互機器人的機械臂由6個舵機構成,分別控制機械臂的關節(jié)1到關節(jié)5以及底盤。機械臂的動作控制依靠PWM控制舵機角度完成,通過STM32編程使得I/O口輸出的PWM波占空比持續(xù)變化,進而使機械臂完成指定動作。

    4.3YOLOv3目標檢測算法

    YOLOv3是一種快速、準確的深度學習目標檢測技術,在檢測速度與檢測精度方面具有較好的綜合性能。在進行圖像特征提取時,YOLOv3運用了Darknet網(wǎng)絡結構[3]。它與殘差網(wǎng)絡的工作原理相似,都是在層與層之間安排了快捷鏈路。YOLOv3進行目標識別時采用不同尺度的3個特征圖,包括32倍降采樣、16倍降采樣以及8倍降采樣,在多尺度featuremap上的檢測與SSD類似。YOLOv3通過route層把淺層特征調(diào)用起來,將4次下采樣后得到的淺層featuremap與16倍降采樣得到的featuremap進行拼接,在深度學習網(wǎng)絡的同時學習深層和淺層特征,具有更好的表達效果。YOLOv3網(wǎng)絡結構如4所示[4]。YOLOv3通過多尺度檢測[5-6],顯著提高了mAP及小型物體的檢測精度,并且通過殘差網(wǎng)絡形成了更深的網(wǎng)絡層次。如果采用COCOmAP50作為評估指標,YOLOv3的表現(xiàn)相當驚人。它的檢測速度是其他模型的很多倍。實際識別效果圖如5所示。

    5結束語

    本文研究的智能交互機器人主要運用了YOLOv3深度學習算法,通過算法自動檢測出圖片中物體的位置,分類出邊界框的物體的類別信息。主要運用在對貨物進行合理的分類擺放,把各種不同的貨物準確地擺放到合適的區(qū)域。通過該深度學習,系統(tǒng)不僅可以使機器人能夠適用于各種不同的場景,而且YOLO算法的準確性以及高速也能夠帶來很大的便利。

    作者:楊炅坤 黃景林 陳玥名 朱胤愷 羅宇昊 單位:中國計量大學機電工程學院

    主站蜘蛛池模板: 久久亚洲AV成人无码国产| 成人精品一区二区电影| 亚洲免费成人网| 91精品成人福利在线播放| 69国产成人精品视频软件| 亚洲AV无码成人黄网站在线观看| 亚洲成人高清在线| 无码国产成人午夜电影在线观看| 在线成人a毛片免费播放| 四虎www成人影院| 成人国内精品久久久久一区| 国产成人精品视频一区二区不卡| 中文国产成人精品久久一| 成人av在线一区二区三区| 亚洲国产成人精品无码区二本| 最新国产成人ab网站| 亚洲色成人网一二三区| 影音先锋成人资源| 欧美成人免费高清视频| 亚洲欧美成人在线| 国产成人精品无码片区在线观看| 欧美成人免费午夜全| 久久久久亚洲AV成人无码| 国产成人av一区二区三区在线观看 | 成人字幕网视频在线观看| 久久久99精品成人片中文字幕| 国产成人精品午夜二三区| 成人午夜短视频| 成人免费视频69| 成人自拍小视频| 欧美成人精品第一区二区三区| 99久久亚洲综合精品成人网| 亚洲国产日韩在线成人蜜芽| 四虎成人精品在永久免费| 四虎国产成人永久精品免费| 亚洲欧美精品成人久久91| 亚洲欧美成人永久第一网站| 亚洲国产成人在线视频| 久久久久久成人毛片免费看| 日韩精品无码成人专区| 成人国产午夜在线视频|