• 
    <ul id="auswy"><sup id="auswy"></sup></ul>
  • <ul id="auswy"></ul>
    ABB
    關注中國自動化產業(yè)發(fā)展的先行者!
    CAIAC 2025
    2025工業(yè)安全大會
    OICT公益講堂
    當前位置:首頁 >> 案例 >> 案例首頁

    案例頻道

    基于自主視覺足球機器人路徑規(guī)劃的研究
    • 企業(yè):控制網     領域:工業(yè)安全     行業(yè):市政工程    
    • 點擊數(shù):1444     發(fā)布時間:2006-07-23 12:30:28
    • 分享到:
    本文根據(jù)自主視覺的足球機器人路徑規(guī)劃的特點,對其在未知動態(tài)環(huán)境下的路徑規(guī)劃進行了研究,對足球機器人全局定位的信息融合方法、在信息不完全或不確定的情況下對移動機器人的局部路徑規(guī)劃方法進行了探討,提出了一種利用不確定的位置信息對機器人和目標進行全局定位的位置規(guī)劃方法。實驗證明該方法使機器人的路徑規(guī)劃具有更大的靈活性、快速性,機器人控制系統(tǒng)具有更好的魯棒性。

     

    0   引言

       
    機器人足球是研究移動機器人和多智能體系統(tǒng)的標準平臺,涉及機器視覺與傳感信息融合技術、無線通信網絡技術、基于知識的行為決策技術、嵌入式計算機技術、多Agent協(xié)調與合作技術、計算機仿真技術、機電一體化技術、人造皮膚與人工生命學技術、社會組織學、對策論等關鍵技術[1],世界各國研究機構都視其為“小平臺上的技術戰(zhàn)爭”。在機器人足球比賽中,路徑規(guī)劃是決策系統(tǒng)的核心,主要應用于機器人底層策略中,作為足球機器人基本動作實現(xiàn)的基礎,他的優(yōu)劣將直接影響動作的實時性和準確性。目前,基于全局視覺的半自主型足球機器人路徑規(guī)劃方法已趨于成熟,C-空間法,人工勢場法,可視圖法,拓撲法和柵格法等都已經在仿真和實際操作方面得到了很好的實現(xiàn)[2]。而基于自主視覺的全自主型足球機器人路徑規(guī)劃由于彩色CCD視角的限制、自主視覺的深度信息丟失兩個原因,很難判斷機器人本體和目標在場上的全局位置,無法進行精確的位置規(guī)劃,從而無法進行最優(yōu)路徑選擇。本文根據(jù)基于自主視覺的路徑規(guī)劃的特點,提出了機器人在不確定信息下的二圓定位規(guī)劃方法。實驗證明,這種規(guī)劃方法使機器人的運動控制具有更大的靈活性和魯棒性,使機器人的路徑規(guī)劃滿足快速性,準確性,和攻守兼?zhèn)湫缘囊蟆?/SPAN>


    1  
    利用不確定的位置信息對機器人和目標進行全局定位

       
    機器人進行全局定位的依據(jù)是兩個并存的坐標系:即基于機器人的相對坐標系和基于場地的全局坐標系[3]。相對坐標系用來確定目標相對于機器人的位置,而全局坐標系用來確定機器人或目標在場地內的全局位置。機器人全局定位的方法有很多,我們采用了基于內部坐標定位和基于視覺定位相結合的方法。基于內部坐標定位就是通過對電機碼值反饋進行運算來確定機器人位置的方法。這種方法的優(yōu)點是數(shù)據(jù)獲取容易,機器人運動初期的定位比較準確;缺點是隨著電機切換次數(shù)的增加,機器人的位姿誤差將產生積累。基于視覺定位是指機器人通過視覺系統(tǒng)獲取圖像,然后根據(jù)場地某些特定標志的相對坐標來確定全局坐標的方法。這種方法的優(yōu)點是當特定標志位于屏幕中心區(qū)域時所得數(shù)據(jù)的誤差較小;缺點是由于受到CCD視角的限制,數(shù)據(jù)獲取比較困難,并且當特定標志位于屏幕邊緣區(qū)域時,數(shù)據(jù)的誤差較大。因此我們把這兩種方法結合起來進行優(yōu)勢互補,來減小機器人全局定位的誤差。由于全局定位誤差的存在,機器人可能的實際位置不再是一個點,而是一個以該點為中心的區(qū)域,在該區(qū)域內部的每一點都有可能是機器人的實際位置。

       
    根據(jù)光學的折射原理,處于圖像邊緣的目標由于折射角度較大,從而失真較大,由此產生的信息誤差也越大。所以實際距離與圖像距離(柵點與柵點的距離)表現(xiàn)為非線性關系。盡管由于自主視覺深度信息的丟失,我們對于二者非線性關系曲線的擬合,在理論上都無法達到無限逼近的效果。但是我們卻可以通過某種算法,標定出擬合誤差在什么樣的范圍之內。


    1.1
    基于內部坐標的全局定位

       
    機器人在第N次電機轉換時的全局坐標(XNYN))與全局誤差半徑RN)的推導公式如下:在1式中V1N),V2N),ΔVN分別代表N次電機轉換的左輪速,右輪速和輪速差2式為m級多項式,用來對第N次電機轉換時的輪速差ΔVN和由此產生的姿態(tài)誤差ΔθN)的關系進行擬合。在3式中Pr為轉動慣性系數(shù),與機器人重心到轉動中心的距離和機器人本體的質量有關。在4式中EθN代表第N次電機轉換時總的姿態(tài)誤差。5式中Pg為前向慣性系數(shù),與機器人本體的質量有關。在6式中ΨN-1為機器人位移方向與Y軸正方向的夾角,SN-1為位移大小。



        通過
    16式我們可以發(fā)現(xiàn),機器人電機轉換的次數(shù)越多,由此產生的誤差積累越大,5式表示機器人運動中的誤差增長與起始點和終止點無關,而只與位移的大小和姿態(tài)誤差有關。


    1.2 
    機器人全局定位的信息融合

       
    我們通過內部坐標和視覺兩種定位方法,分別得出了機器人位姿坐標(XaYaθa)和(XbYbθb機器人的全局誤差半徑RaRb機器人的姿態(tài)誤差EθaEθb,也同時得出了機器人的可能位置區(qū)域AB以及角度區(qū)域αβ。取CAB的交集,γαβ交集,可得712式。

     (7)

      (8)

      (9)

      (10)

      (11)

     (12)

       
    我們采用如圖1所示的信息融合方法。取機器人位置坐標(XY)為C的重心坐標,R為(XY)到C的邊緣的最大值;機器人姿態(tài)坐標θ為(θ1+θ2/2Eθ為(θ2-θ1/2,這樣便得到了機器人信息融合后的位姿坐標

    熱點新聞

    推薦產品

    x
    • 在線反饋
    1.我有以下需求:



    2.詳細的需求:
    姓名:
    單位:
    電話:
    郵件: