公務員期刊網 論文中心 正文

計算機下割草機器人作業(yè)控制探究

前言:想要寫出一篇引人入勝的文章?我們特意為您整理了計算機下割草機器人作業(yè)控制探究范文,希望能給你帶來靈感和參考,敬請閱讀。

計算機下割草機器人作業(yè)控制探究

摘要:以割草機器人作業(yè)過程為研究對象,分析了機器人作業(yè)的環(huán)境特點,建立特定的環(huán)境參數模型,并運用計算機視覺算法進行作業(yè)環(huán)境的自動化識別。試驗結果表明:割草機器人視覺系統(tǒng)所包含的目標識別算法和邊界特征導航算法,對割草機器人作業(yè)過程中的目標識別準確率達到95%以上,控制指令發(fā)出至作業(yè)過程的平均反應距離不大于20mm,能夠實時準確地進行割草作業(yè)過程自動控制。

關鍵詞:割草機器人;計算機視覺;圖像采集;特征比對

0引言

目前,割草機器人朝向智能化發(fā)展,能夠將環(huán)境信息的感知、機器人路徑規(guī)劃以及機器人動作控制集成一體,實現作業(yè)過程的智能化控制[1]。割草機器人機械結構組成、傳感采集系統(tǒng)以及機器人路徑規(guī)劃算法等發(fā)展已經成熟,能夠促進機器人自動化作業(yè)過程的發(fā)展[2-3]。割草機器人作業(yè)環(huán)境復雜,在作業(yè)過程中會遇到多種障礙物,草地邊界位置會遇到形狀不規(guī)則的邊緣,在遇到不同的障礙物時割草機器人需要根據障礙物的類型及形狀進行不同行走路線的規(guī)劃,并根據環(huán)境信息進行自身姿態(tài)的調整。因此,割草機器人需要對障礙物信息進行正確的判斷[45]。筆者將計算機視覺與割草自動化機器人進行結合,有效地促進割草機器人的智能化發(fā)展,使割草機器人能夠在作業(yè)過程中根據環(huán)境障礙和作業(yè)路徑進行行走及動作的自動化控制,不斷適應復雜作業(yè)環(huán)境,確保割草機器人能夠自主、可靠地進行割草作業(yè)。

1割草機器人視覺控制系統(tǒng)

割草機器人在工作過程中對周圍環(huán)境不斷進行圖像拍攝,并以此判斷割草作業(yè)環(huán)境。割草環(huán)境信息大致可以分為直線行走區(qū)域、草地邊界區(qū)域以及草地界外區(qū)域[6]。在直線行走區(qū)域,割草機器人視覺系統(tǒng)拍攝到的圖像主要為綠色草地,軟件系統(tǒng)根據圖像進行控制機器人直線行走,并進行割草作業(yè)[7]。在草地邊界區(qū)域和界外區(qū)域結合處,計算機視覺采集系統(tǒng)所拍攝到的圖像信息一半為草地、一半為非草地,割草機器人根據草地與非草地交界位置進行行走及割草動作控制,保持在草地內直線行走割草,到達交界位置時機器人后退并旋轉角度,保證割草作業(yè)過程的行進安全[8-9]?;谟嬎銠C視覺建立的割草機器人,能夠對環(huán)境參數信息進行圖像實時數據采集。計算機視覺系統(tǒng)能夠根據處理后的環(huán)境圖像生成不同的控制指令,進行割草機器人行走過程及割草作業(yè)機構的控制[10]。割草機器人視覺導航系統(tǒng)結構組成如圖1所示。割草機器人視覺系統(tǒng)硬件部分常用高清攝像頭作為計算機視覺傳感器,軟件系統(tǒng)一般為嵌入式操作系統(tǒng),并搭載計算機視覺算法處理軟件,對割草機器人計算機視覺傳感器采集到的圖像進行分析處理;割草機器人控制系統(tǒng)根據計算機視覺處理結果進行控制指令的生成,并傳輸至執(zhí)行機構[11]。

2割草目標識別算法

割草機器人視覺系統(tǒng)根據拍攝到的圖像進行二值化處理,并對圖像進行過濾運算,采取統(tǒng)計算法進行圖像特征統(tǒng)計。圖像分析識別過程中,將整幅圖像劃分為3×3的小格,并與判斷識別標準進行對比,計算圖像中綠色圖像所占比例[12]。當9格中綠色圖像信息所占比例小于20%時,判斷當前位置為草地界外環(huán)境,割草機器人進行后退或旋轉角度,重新進行圖像采集。割草機器人視覺系統(tǒng)所采集的圖像為f(x,y),圖像模板為ω(x,y),則二者之間的相關度可表示為c(x,y)=∑s∑sω(x,t)f(x+s,y+t)圖2為割草機器人視覺系統(tǒng)所采集的圖像模板。其大小為m×n,圖像中心位置為(x,y)。移動圖像模板的中心,使模板ω(x,y)中心能夠對圖像f(x,y)中的每個像素進行訪問,尋找最大相關度,找出圖像最佳匹配特征。當出現多個最大值時,表明圖像模板與目標圖像之間存在多個匹配特征。割草機器人在進行目標圖像識別過程中,需要對草地圖像、圖像特征、圖像紋理以及圖像灰度值進行相互匹配,匹配過程中可通過灰度值進行匹配,或通過圖像特征值進行匹配。利用圖像特征值進行目標圖像匹配時,主要通過顏色、紋理、形狀以及空間位置等不同角度進行匹配。匹配過程中,首先對圖像進行預處理,提取圖像的高階特征,建立原始圖像與對比圖像之間的對應關系。特征匹配過程中所用到的算法主要包括矩陣運算、梯度求解、傅里葉變換以及泰勒公式等。割草機器人視覺系統(tǒng)進行特征匹配時,首先進行圖像顏色特征匹配,將綠色特征判斷為草地,將非綠色特征判斷為障礙物或者非草地。通過顏色特征進行草地目標識別通常會出現誤判斷現象,因此通常在顏色特征匹配的基礎上進一步進行形狀特征匹配。

3草地邊界區(qū)域導航算法

割草機器人在進行目標邊界導航時,根據設定好的圖像灰度閾值進行圖像二值化處理,并進行圖像特征濾波,濾波過程中保持在一個像素點的相鄰域內進行綠色點尋找,從而得到二值化濾波處理后的邊界圖像信息。采用9格區(qū)域處理的方法進行圖像信息比例識別(如綠色比例較大),則判定為草地內,非綠色區(qū)域判定為界外;當存在結合區(qū)域時,對圖像進行邊緣檢測,得到圖像特征,從而對割草機器人進行精確運動控制。圖3為割草機器人邊界導航算法流程。割草機器人完成邊界區(qū)域導航后,導航模板與草地區(qū)域圖像進行比對,根據比對結果生成系統(tǒng)導航控制指令;割草機器人計算機視覺軟件系統(tǒng)將二值化圖像進行濾波處理,尋找相鄰區(qū)域內的紅色點,同時利用中心線算法判斷割草機器人位置,尋找相鄰兩個像素點之間的像素差,并與設定閾值進行比對,確定導航模板中心線與割草區(qū)域圖像中心線之間的偏差,從而形成割草機器人的行走控制指令。圖4為割草機器人行走控制過程流程圖。

4系統(tǒng)測試

將所設計的計算機視覺運動控制算法應用于割草機器人,通過割草機器人的作業(yè)過程進行控制可靠性驗證。為驗證計算機視覺割草機器人控制算法的準確性,將普通割草機器人與計算機視覺控制系統(tǒng)割草機器人同時處于草地與路沿交界處,使割草機器人進行100次運動指令驗證,記錄指令驗證成功次數,即表示割草機器人每100次實驗準確率。為驗證割草機器人控制指令的實時性,對普通割草機器人與計算機視覺控制系統(tǒng)割草機器人的作業(yè)過程反應距離同時進行驗證,割草機器人在草地進行隨機作業(yè),當面對不同障礙及草地邊界時能夠進行運動及割草動作的控制,記錄割草機器人控制指令發(fā)出至機器人動作時的距離,即為割草機器人作業(yè)過程反應距離。

5結論

通過計算機視覺算法進行割草機器人作業(yè)運動過程控制,利用圖像特征匹配的方式進行智能化控制,有效提高了割草機器人的智能化視覺功能,使割草機器人能夠在不同環(huán)境條件中自主、可靠地完成割草任務。

作者:徐晨 單位:重慶工商職業(yè)學院