专利摘要:
基準座標上の視覚的イメージを利用した客体位置の測定方法が開示される。本発明は、多重ビジュアルイメージを使う客体の位置測定のための効果的な方法に関するものであって、イメージング装置のズーミングとパンニングとを支援する平行投影モデルを提案する。本発明は、客体位置と基準座標との関係を創出するための仮想ビューアブル平面を定義する。本発明で要求される基準座標は、予備−推定(pre−estimnation)過程から得られる概略的な推定であり得る。本発明は、計算的複雑性が緩和された反復的な接近を通じて、位置測定エラーを最小化する。また、デジタルイメージ装置の非線形歪曲は、反復的な位置測定過程で補償されうる。
公开号:JP2011513724A
申请号:JP2010548594
申请日:2008-04-03
公开日:2011-04-28
发明作者:ジンソク イ;イトク ジョ;ユンヨン ナム;キョンシュ パク;サンジン ホン
申请人:アジョン ユニバーシティ インダストリー コーポレーション ファウンデーション;
IPC主号:G01B11-00
专利说明:

[0001] 本発明は、客体の位置を測定する方法に係り、特に、基準座標とビジュアルイメージを使う基準座標上の視覚的イメージを利用した反復的または非反復的客体位置の測定方法に関する。]
背景技術

[0002] 客体の位置測定は、観測、モニタリング及びトラッキング(tracking)アプリケーションのような多くのアプリケーションでの重要な動作中の一つである。トラッキングシステムは、病院及び事務室だけではなく、軍事的アプリケーションのように多様な分野に幅広く適用されている。このようなトラッキングシステムで、客体の位置測定の正確性は、非常に重要な問題である。音波センサー(acoustic sensor)は、柔軟性、低いコスト及び容易な配置などを理由で多くのアプリケーションで幅広く使われている。しかし、音波センサーは、環境に敏感であり、連続的なデータ要求を十分に満足させることができない。したがって、信頼性のあるトラッキング方法として、ビジュアルセンサーが度々使われる。]
[0003] 従来、一つのイメージの単一指標の観点での絶対的な位置を決定するために、ロボットを使う簡単なビジュアル位置測定方法が提示された。このアルゴリズムで、イメージ平面は、光学側と直交し、光学側と焦点の長さほど離れて配される。指標モデルを追跡するために、Lucal−Kanade光学流れアルゴリズムは、グラディエントディセント(gradient descent)を使う。このアルゴリズムを利用した室内環境でのリアルタイム遂行が可能である。しかし、このような接近方式は、単に一つの対応のみが設けられうるピンホール(pinhole)カメラモデルの限界を有する。]
[0004] 適応的なアルゴリズムとして、多数のカメラを使う光学流れ−基盤の人追跡アルゴリズムが室内環境で適用される。このアルゴリズムで、それぞれのカメラは、独立して目標となった人を追跡する。カメラの間に情報を交換することによって、3次元位置及びターゲットの速度が推定される。特に、カメラのうち一つが急にターゲットを逃した場合、このアルゴリズムは、さらに効果的である。イメージでのターゲット位置及び速度が他のカメラからの情報に基づいて推定されるためである。ターゲット位置は、少なくとも二つ以上の追跡カメラの投影線の交点から得られる。さらに、一つのカメラでの深さの範囲を推定するために、このアルゴリズムは、追跡ウィンドウを使う。これは、一つのイメージ平面での検出された人の境界及び身長を表わす。したがって、このアルゴリズムは、完全に抽出された客体領域からの信頼性のある水平位置を要求する。]
[0005] 多数のカメラ及び多数のマイクロホン配列からの多様な情報は、場面の客体を追跡するのに使われる場合、効果的にビデオ−コンファレンシング(video−conferencing)環境で人を追跡するための多様なセンサーの協同を行う追跡フレームワークに基盤を置いたパーティクルフィルター(particle filter)が提案された。位置測定のために、ビューアブルイメージのイメージ座標(u、v)がDLT(Direct Linear Transformation)を使って、(X、Y、Z)座標に変換される。しかし、このような方式で、知られた図形に位置する測定客体(calibration object)は、11個のパラメータを有するマトリックスPiを推定することが要求される。さらに、カメラがパンニングまたはズーミングされれば(例えば、カメラのセッティングが変化)、カメラの測定は、必ず反復されなければならない。
このように、客体の位置を推定するための従来の多様なアルゴリズムは、位置測定の正確性と計算の複雑性とのトレードオフ(tradeoff)関係による短所を有する問題がある。]
発明が解決しようとする課題

[0006] 本発明が解決しようとする技術的課題は、客体の位置測定において、正確性を向上させながらも、計算の複雑性を減少させることができる効果的な基準座標上の視覚的イメージを利用した客体位置の測定方法を提供することである。]
課題を解決するための手段

[0007] 前記技術的課題を解決するための本発明の実施形態による客体位置の測定方法は、客体平面に位置する客体及び前記客体に対応する基準点を仮想ビューアブル平面及び実際カメラ平面に投影する段階と、前記客体に対応する基準点の座標を推定する段階と、前記客体の位置と前記基準点の座標との関係を規定する段階と、を備える。]
[0008] 望ましくは、前記仮想ビューアブル平面は、前記客体平面に平行である。]
[0009] 望ましくは、前記客体は、一つのセンサーによって投影されうる。または、前記客体は、多数のセンサーによって投影されうる。]
[0010] 多数のセンサーによって客体が投影される場合、前記客体位置の測定方法は、前記多数のセンサーによる投影された客体及び基準点に対する位置測定の差ほどを互いに補償する段階をさらに備えることができる。この際、前記多数のセンサーは、各センサーのパンファクターに基づいて選択されうる。望ましくは、前記多数のセンサーは、各センサーのパンファクターの絶対値の差が“0”であるセンサーで選択されうる。]
[0011] 望ましくは、前記客体の位置と前記基準点の座標との関係を規定する段階は、前記客体の位置と前記基準点の位置とが一致する場合、前記基準点の位置を前記客体の位置として測定することができる。]
[0012] 望ましくは、前記客体位置の測定方法は、1回行われる。または、前記客体位置の測定方法は、反復的に行われる。]
発明の効果

[0013] 本発明は、多重ビジュアルイメージを使う客体の位置測定のための効果的な方法に関するものであって、イメージング装置のズーミング(zooming)とパンニング(panning)とを支援する平行投影モデルを使って、予備−推定(pre−estimnation)過程から得られる概略的な推定を通じて基準座標を推定して計算の複雑性を減少させながらも、非線形歪曲などを補償することができて、正確な客体位置を測定することができる長所がある。]
図面の簡単な説明

[0014] 2つのカメラが適用される客体の位置測定でのビジュアル位置測定の概念を示す図である。
カメラで投影された実際イメージと平行投影モデルとの関係を示す図である。
ズーミングファクターz1及びz2に対応して実際カメラ平面に投影された位置の変化Pp1(c)及びPp2(c)を示す図である。
同一なズーミングに基づいた実際カメラ平面での同一な点に走査される2つの他の客体に対する場合を示す図である。
カメラのパンニングによる多様なビューアブル平面の座標変換を示す図である。
一つのセンサーに基づいた基準点Eを使った客体の位置測定を示す図である。
パンファクター及びカメラ角度を有する多数のカメラを示す図である。
2つのカメラが同一な軸に、または反対軸に位置する場合を示す図である。
特別な場合(パンファクターのθp1及びθp2の値が“0”である場合)の2つのカメラを使う位置測定方法を示す図である。
図9での理想的な場合、すなわち、正確な位置測定結果を出すカメラの中央点と見なされる実際客体を示す図である。
パンファクターのθp1及びθp2が“0”ではない場合の2つのカメラが回転する状況を示す図である。
2つの平行客体平面を形成する平行な視野を有する2つのカメラを示す図である。
オリジナル位置測定及び反復結果を示す図である。
図11に基づいた一つの反復実行に対する反復結果を示す図である。
波線及び実線がそれぞれズームファクターz=de/Lc及びz’=(de+△d)/Lc’である理想的なビューアブル角度及び実際ビューアブル角度を示す、位置測定が要求されるズーミングモデルを示す図である。
カメラからの距離の関数及び多様な実際ズームファクターを有するズーミング歪曲を示す図である。
それぞれ、Camera1及びCamera2での基準点及び実際客体ポイントの間の距離が△u1及び△u2である場合の2つのカメラを使ってディスプレイされたイメージを示す図である。
実際客体を測定するための実験に対する設定を示す図である。
2つのカメラがOc1(1.8、0)及びOc2(0、1.8)に位置して補償アルゴリズムを使わない場合のエラー分布を示す図である。
本発明による位置測定方法によって位置測定エラーが著しく減少することを示す図である。
本発明による位置測定方法の反復遂行の回数に対する位置測定エラーの減少を示す図である。
(a)は、位置測定の軌道を表わし、(b)及び(c)は、それぞれx軸、y軸に対する追跡性能を示す図である。
位置測定の軌道結果を示す図である。] 図11 図9
実施例

[0015] 本発明と本発明の動作上の利点及び本発明の実施によって達成される目的を十分に理解するためには、本発明の望ましい実施形態を例示する添付図面及び図面に記載の内容を参照しなければならない。]
[0016] 以下、添付図面を参照して、本発明の望ましい実施形態を説明することによって、本発明を詳しく説明する。各図面に付された同じ参照符号は、同じ部材を表わす。]
[0017] 図1は、2つのカメラが適用される客体の位置測定でのビジュアル位置測定の概念を示す図である。平行投影モデルで、仮想ビューアブル平面は、実際客体と実際カメラとの関係の公式化を助けるために生成される。本発明は、キャリブレーション(calibration)なしに多数の客体の位置測定が可能な長所を有する。本発明は、概略的に計算される予備−推定された位置で始まる。そして、追加的な追跡アルゴリズムからの予備−推定がないとしても、概略的に推定された位置は、センサーノード位置に代替されうる。本発明を通じて、最終的に推定された位置P(xn,yn)は、次の数式1から得られる。] 図1
[0018] ]
[0019] ここで、E(xn,yn)は、基準座標を表わし、e(σxn,σyn)は、ビジュアル位置測定を通じて補償された座標を表わす。]
[0020] 以下、まず、一つのカメラを使った平行投影モデルについて簡単に説明した後、多数のカメラを使った2次元座標に対するビジュアル位置測定方法について説明する。次いで、デジタルイメージングデバイスの非線形性補償による位置測定エラーを最小化する方案について説明する。]
[0021] I.ビューアブルイメージの特性
A.平行投影モデルの基本概念
平行投影モデルは、ビジュアル位置測定を簡単にするために使われる。これは、客体平面、仮想ビューアブル平面及び実際カメラ平面の3つの平面で構成される。図2に示したように、客体Pは、客体平面に位置し、投影点PP(v)及びPP(c)で仮想ビューアブル平面及び実際カメラ平面に投影される。仮想ビューアブル平面は、客体平面に距離dpの差を置いて、平行である。仮想ビューアブル平面の長さは、Lcで、実際カメラ平面の長さは、Lsで示される。仮想ビューアブル平面及び実際カメラ平面に投影された客体の位置は、それぞれUpp及びUpで示される。そして、ポイントPとOcとの間の距離は、kpで示される。] 図2
[0022] 平行投影モデルで、実際客体は、仮想ビューアブル平面を通じる客体平面から実際カメラ平面まで投影される。したがって、Uppは、次の数式2のように、二つの平面の比例線を通じてLc、Ls及びupで表現される。]
[0023] ]
[0024] 実際客体位置は、upp及びdpから簡単に求められうる。]
[0025] B.ズーミング及びパンニング
カメラの特性を考慮するために、ズームファクター(zoom factor)をzで、パンファクター(pan factor)をθpと称する。ズームファクターzは、次の数式3と定義される。]
[0026] ]
[0027] 図3は、ズーミングファクターz1及びz2に対応して実際カメラ平面に投影された位置の変化Pp1(c)及びPp2(c)を示す。仮想ビューアブル平面に投影されたPp1(v)及びPp2(v)は、同一であることを知らせる。すなわち、2つのカメラが他のズーミングファクターを有する場合、客体は、単に実際カメラ平面でのみ異ならせて投影される。したがって、数式2のupp及びupの関係から、実際カメラ平面に投影された位置up1及びup2smsは、それぞれ次の数式4と数式5とで表現される。] 図3
[0028] ]
[0029] 数式3によって、z1=dp/Lc1であり、z2=dp/Lc2であるので、up1及びup2の関係は、次の数式6のように誘導されうる。]
[0030] ]
[0031] 図4は、同一なズーミングに基づいた実際カメラ平面での同一な点に走査される2つの他の客体に対する場合を示す。実際カメラ平面が一定の間、仮想ビューアブル平面が変化される。仮想ビューアブル平面1及び2は、それぞれ、投影された点Pp(v1)及びPp(v2)でともに投影された客体P1及びP2に対して表わす。さらに、客体平面1及び2は、それぞれ、客体P1及びP2に対して表わす。ズームファクターzが、次の数式7で同じであるので、upp1及びupp2の関係は、次の数式8のように表われる。] 図4
[0032] ]
[0033] これは、客体とカメラとの間の投影方向での距離が客体の位置測定のための重要なパラメータであることを示す。多数のセンサーを通じる距離の検出は、後術される説明を通じて公式化されうる。]
[0034] 図5に示された投影方向(n−axis)及びグローバル座標y−aixsの間の角度差を表わすパンファクター(θp)について説明する。] 図5
[0035] グローバル座標は、固定された座標であるx−y軸と定義される。そして、θcは、カメラ角度を表わす。この際、仮想ビューアブル平面Pp(v)に客体投影位置は、次の数式9のように誘導されうる。]
[0036] ]
[0037] ここで、xpv及びypvは、ポイントPp(v)を表わし、xc及びycは、仮想ビューアブル平面の中心点(Oc)を表わす。θc及びθpは、実際カメラ平面がx軸に配される場合、“0”で同一である。]
[0038] C.一つのカメラに基づいた客体の位置測定
一つのカメラに基づいた位置測定の場合を説明する。図6は、一つのセンサーに基づいた基準点Eを使った客体の位置測定を示す。基準点E及び実際客体Prは、仮想ビューアブル平面及び実際カメラ平面の2つの平面に投影される。基準点Eは、客体平面を生成するので、実際客体Prは、客体平面に配される点Pr’で歪曲される。投影された位置の観点で、Ep(v)及びPp(v)の間の距離は、数式2から得られる。結果的に、客体平面に配された近隣接した客体点Pr’(xr’、yr’)は、次の数式10のように決定される。] 図6
[0039] ]
[0040] ビジュアル投影方法に基づいた一つのセンサーを通じて推定された位置が基準点で求められる。次いで、PrとPr’との間のエラーを減らすための多数のセンサーを利用した位置測定について説明する。]
[0041] II.2次元座標でのビジュアル位置測定アルゴリズム
A.カメラ位置及びパンファクターの間の関係
図7は、パンファクター及びカメラ角度を有する多数のカメラを示す。Camera A、B、C及びDの4つのカメラが配される。隣接した軸に位置される一対のカメラが選択される。図7の(a)で、カメラ角度θcは、グローバルx軸と関係するカメラ視野角を表わし、パンアングルθpは、グローバル座標と関係する方向角niを表わす。θpの符号は、右側回転である場合は、正の値で、左側回転の場合は、負の値で決定される。これについて論議するために、左側にあるカメラはCamera1と言い、右側にあるカメラをCamera2と仮定する。] 図7
[0042] 隣接した軸に位置する2つのカメラを使う場合の位置測定公式化のために、Camera A及びDが客体と見なされる。そして、パンファクターのθp1及びθp2の符号は、客体の位置によって変化される。一つのカメラによる視野角が180°以下に制限されるためである。隣接した軸に位置する2つのカメラで位置をアドレッシング(addressing)する前に、簡単に、2つのカメラの他の可能な配置について説明する。図8は、2つのカメラが同一な軸に、または反対軸に位置する場合を示す。図8の2つのカメラは、図7(a)ないし図7(e)と同一な公式で説明されうる。特に、図8の(a)は、図7の(e)と同一であり、図8の(b)は、図7の(d)と同一である。単に、両者は、2つのカメラから得られる視野角の差があるだけである。] 図7 図8
[0043] B.多数のカメラに基づいた客体の位置測定
選択された2つのカメラに基づいて、2種の場合に対する客体位置が観察されて公式化されうる。特別な場合(パンファクターのθp1及びθp2の値が“0”である場合)、パンファクターを考慮しなくても、客体の位置が測定される。]
[0044] 図9は、特別な場合(パンファクターのθp1及びθp2の値が“0”である場合)の2つのカメラを使う位置測定方法が示される。与えられた基準点E(xe、ye)で、2つのカメラに対する客体平面が決定される。各カメラの客体平面上の点P’r1(x’r1、y’r1)及びP’r2(x’r2、y’r2)が、それぞれ仮想ビューアブル平面上の点Pp1及びPp2に垂直して投影される。同様に、基準点が点のEp1及びEp2に投影される。カメラ1の視野で、投影された点のPp1及びEp1の間の差△u1は、カメラ2の客体平面及び点P’rの間の距離を支援する。同様に、カメラ2の視野で、投影された点のPp2及びEp2の間の差△u2は、カメラ1の客体平面及び点P’rの間の距離を支援する。言い換えれば、補償アルゴリズムは与えられた基本点Eによって、カメラ1をy方向を△u1ほど補償し、カメラ2はx方向を△u2ほど補償する。] 図9
[0045] 一つの追加的なセンサーを通じて、y方向での△u1、x方向での△u2いずれも、次の数式11のように実際客体に近い基準点を補償する。]
[0046] ]
[0047] この際、P’r1(x’r1、y’r1)は、実際客体位置Pr1(xr1、yr1)に対するエラーを依然として引き起こす2つのカメラを通じる客体位置で位置測定される。]
[0048] Eが、客体の実際位置にさらに近接するように与えられる。そして、P’rがPrにさらに近接するように決定される。言い換えれば、客体の実際位置Prにさらに近い基準点Eを得ることによって、エラーは減ることができる。]
[0049] 正確な位置測定のためのまた他の方法は、いかなる歪曲もなく、仮想ビューアブル平面に実際客体を投影するものである。図10に示したように、実際客体位置Prは、正確に点のPr及びP’rをマッチングする各カメラの中央に位置する。これは、基準点Eの位置とは関係なく、位置測定エラーが“0”に減ったことを意味する。したがって、どんなに実際客体がカメラの中央点として検討されるかどうかが考慮されなければならない。] 図10
[0050] 以上で、実際入力は、実際カメラ平面の上の点に投影される。しかし、説明の便宜上、実際カメラ平面は省略される。但し、実際カメラ平面は、仮想ビューアブル平面で数式2から簡単に変換されうる。]
[0051] それ以外の一般的な場合(パンファクターのθp1及びθp2の値が“0”ではない場合)は、次による。客体が空間で移動することによって、制限された視野角を克服するために、カメラは、パンファクターの制御が要求されうる。以下で、前述された特別な場合を含んだ一般的な多数のセンサー位置測定が公式化される。]
[0052] 図11は、パンファクターのθp1及びθp2が“0”ではない場合の2つのカメラが回転する状況を示す。仮想ビューアブル平面及び実際カメラ平面への投影を含み、位置測定方法は、前述された特別な場合と同一である。但し、△u1及び△u2は、各パンファクターθp1及びθp2によってスキュー(skew)される。] 図11
[0053] 特別な場合が、加算及び/または減算の簡単な計算を要求する長方形などを構成する一方、4つの点のP’r、P’r1、P’r2及びEで連結される四角形はスキューされる。パンファクターのθp1及びθp2、△u1及び△u2を有する2つのスキューされたカメラは、次の数式12を通じて基準点を補償する。]
[0054] ]
[0055] ここで、位置測定された位置P’r(x’r、y’r)は、2つの仮想投影されたラインの交点を表わす。2つの仮想投影されたラインのl1は、P’r1(x’r1、y’r1)とP’r(x’r、y’r)とを繋ぐ線であり、l2は、P’r2(x’r2、y’r2)とP’r(x’r、y’r)とを繋ぐ線である。θ1及びθ2は、それぞれ−θp1及び90−θp2と同一な各カメラの投影ライン傾きである。P’r1及びP’r2は、次の数式13で誘導される。]
[0056] ]
[0057] ここで、位置測定された位置P’r(x’r、y’r)を立証するために、(i)θ1及びθ2が90°と270°となくなければならず、(ii)tanθ1及びtanθ2が“0”ではなくなければならない。]
[0058] 実際にカメラが90°で回転することが不要であるために、条件(i)は、選択されたカメラによって十分に満足される。条件(ii)は、θp1=−θ1であり、θp2=90−θ2で、θp2−θp1≠90°のようである。2つのパンファクターのθp2−θp1が90°と言うことは、2つの客体平面だけではなく、2つの投影ラインl1、l2が平行であることを意味する。したがって、交点P’rは、客体の位置測定のために求められることができない。さらに、P’rが実際位置Prより大きなエラーを有しうる。]
[0059] 次いで、カメラ選択について説明する。パンファクターの条件は、次の数式14で表われる。]
[0060] ]
[0061] この際、最も良い条件は、次の数式15のようであると言える。]
[0062] ]
[0063] したがって、カメラの選択は、θp2の絶対値からθp1の絶対値を差引いた値が“0”に近いカメラ一対で決定されうる。]
[0064] C.考慮事項
基準点:基本的に、平行投影モデルは、パーティクルフィルターやカルマンフィルター(Kalman Filter)のような推定アルゴリズムによって与えられた基準点を通じて、客体の位置を測定する。平行投影モデルの位置測定は、客体位置及びパンファクターがキー(key)の役割である。特に、さらに正確な位置測定のために、点のPr及びP’rの間の差は減ることが要求される。理想的な方法として、ラインl1がP’r1−P’rと正確に一致され、ラインl2がP’r2−P’rと正確に一致されることは、ゼロエラーをもたらす。二つの点のPp1及びOc1がマッチされるだけではなく、二つの点のPp2及びOc2がマッチされれば、P’rは、Prにさらに近くに位置される。図12で、カメラ中央フォワードラインF1及びF2は、それぞれラインl1及びl2と合わせられる。しかし、条件は、客体の知られた位置に達成されなければならない。したがって、最も良い場合は、ラインl1のOc1−E及びラインl2のOc2−Eがいずれも整列されることである。この条件は、カメラ選択に含まれうる。] 図12
[0065] もし、基準点Eが知られていなければ、例えば、基準点が与えられていないか、近似な客体位置に対する如何なる情報も支援されていないならば、基準点はランダムな点として選択される。この場合、本発明は、反復される接近を通じて、ランダムに選択された点がPrに近接される。そして、反復的な方法は、知られた基準点の場合にも、位置決定の正確性を向上させる。これについてさらに詳しく説明する。]
[0066] D.エラーを減らすための反復的位置の測定方法
次に説明される反復的技法の基本概念は、基準点で位置P’rが位置測定に使われるものである。この方法は、各客体点に対する基準が提供されることを要求しない。そして、位置測定された位置P’rは、基準点Eが実際位置Prに近接したように、実際位置Prにさらに近接するように求められる。図13は、オリジナル位置測定及び反復結果を示す。実線は、投影ラインであり、点線は、客体平面であり、ドット−ソリッドラインは、カメラ視野ラインである。オリジナル及び反復的位置の測定方法を比較すれば、カメラ視野ラインは、他のラインが反復的過程に対して移動した一方、一定である。ithは、反復回数を表わす。反復過程で、新たな基準点(xe(1)、ye(1))は、既存の位置測定された点(x’r、y’r)に置き換えられる。] 図13
[0067] 図14は、図11に基づいた一つの反復実行に対する反復結果を示す。P’rは、反復過程が反復的に実行されることによって、Prに近接される。反復は、P’r(i−1)及びP’r(i)の間の差がスレショルド値(threshold value)δより小くなるまで続けられる。ここで、iは、反復回数を表わし、P’r(0)は、元の方法で求められた位置P’rと同一である。] 図11 図14
[0068] さらに、反復方法を通じて、位置測定は、非線形特性にも鈍感になる。以下では、いかに反復方法が非線形特性の補償に影響を与えるかについて記述される。]
[0069] E.レンズ非線形歪曲の補償
カメラレンズは、非線形ビューアブルラインを有する。図15は、波線及び実線がそれぞれズームファクターz=de/Lc及びz’=(de+△d)/L’cである理想的なビューアブル角度及び実際ビューアブル角度を表わす、位置測定が要求されるズーミングモデルを示す。もし、カメラが理想的なズーミング角度を有するならば、ズームファクターzは定数である。これは、zが基準点Eに無関係であることを意味する。しかし、実際カメラは、レンズ歪曲を有する。] 図15
[0070] このようなエラーは、ズーミング効果及びレンズ歪曲によって引き起こされるが、このエラーは、スケール歪曲の理由となる。ズーミングファクターに起因して、前述された数式2によってu’ppがup(L’c/Ls)と表現される。さらに、前述された数式3に起因して、Lc及びL’cは、それぞれde/z及びde+△d/z’で誘導される。したがって、実際ズーミングモデルでの実際距離u’ppは、次の数式16によって補償される。]
[0071] ]
[0072] レンズの非線形特性が補償されうる一方、これは、依然として根本的なエラーである。ここで、反復的な過程を通じて基準点Eを客体位置Prに近接させることによって、エラーが最小化されうる。]
[0073] 図16は、カメラからの距離の関数及び多様な実際ズームファクターを有するズーミング歪曲を示す。] 図16
[0074] 以上、本発明の構成及び機能について説明した。次で、本発明について分析し、本発明のシミュレーション結果を説明する。]
[0075] III.分析及びシミュレーション
A.シミュレーション
図17は、それぞれ、Camera1及びCamera2での基準点及び実際客体ポイントの間の距離が△u1及び△u2である場合の2つのカメラを使ってディスプレイされたイメージを示す。簡略化のために、実際カメラ動作での基準点ではない、図17(a)及び図17(b)のイメージフレームでの基準点Eを示す。] 図17
[0076] 図18は、実際客体を測定するための実験に対する設定を示す。この実験で、客体の実際位置は、平行投影モデル基盤の基準から計算される。図18で、2つのカメラがCamera1の左側に、Camera2の下側に配される。各カメラのパンファクターθp1及びθp2は、いずれも“0”である。] 図18
[0077] 実際ズームファクターは、客体平面と仮想ビューアブル平面との距離がde1+△d1である時、z’1がズームファクターである場合及び客体平面と仮想ビューアブル平面との距離がde2+△d2である時、z’2がズームファクターである場合、それぞれz1=de1/Lc1及びz2=de2/Lc2である。]
[0078] B.位置測定エラー評価
図19は、2つのカメラがOc1(1.8、0)及びOc2(0、1.8)に位置して補償アルゴリズムを使わない場合のエラー分布を示す図である。図19は、基準点の作用としてのx軸、y軸及び両軸での位置測定エラーの量を示す。各カメラは制限された視野角を有するので、視野角外に存在する基準点は黒い地域として示される。エラーは、基準点が実際客体点に最も隣接した場合に最小化される。] 図19
[0079] 位置測定エラーは、本発明による位置測定方法の多数の反復遂行を通じてさらに減られうる。図20は、エラーが著しく減少することを示す。図21は、反復遂行の回数に対する位置測定エラーの減少を示す。] 図20 図21
[0080] C.客体追跡性能
本発明によって客体位置の測定方法は、また追跡に対しても適用される。例えば、客体が4m*4m地域で動き、イメージが実際カメラから得られるとする。まず、本発明による非反復的位置の測定方法を用いて追跡問題が補償されうる。経時的に客体の座標が変化されるが、これらに対応する推定が生成される。図22の(a)は、位置測定の軌道を示す。補償後に、追跡性能は向上する。図22の(b)及び(c)は、それぞれx軸、y軸に対する追跡性能を示す。図22は、追跡性能の向上を証明しているが、依然として位置測定エラーが存在する問題がある。] 図22
[0081] 同様に、本発明による反復的位置の測定方法が同一な追跡問題に適用される。この場合、単に一つの基準座標が全体的な位置測定に使われる。選択された推定は、図23の軌道の外部に示される。図23は、位置測定の軌道結果を示す。推定された座標が客体と近接しないために、一回の反復遂行では著しいエラーが発生する。エラーは、客体が推定された座標から遠く位置するほど増加する。しかし、本発明による反復的位置測定によって位置測定エラーが除去される。] 図23
[0082] 前述した本発明は、伝統的なデジタルイメージングデバイスから得られるビジュアルイメージを使う環境での客体の位置測定のための効果的で簡単な方法を提示した。具体的に、本発明による平行投影モデルは、ズーミング及びパンニング特性をいずれも支援する客体の位置を決定するための計算的複雑性を簡素化した。さらに、本発明による位置測定方法は、カメラレンズの光学特性のような非理想的な特性を十分に補償した。基準座標と呼ばれる以前の情報は、パーティクルフィルタリングのような推定アルゴリズムの一部から得られる経時的に変化する一つまたは多数のポイントであり得る。本発明によるビジュアル位置測定は、不明確性を補償することができる。]
[0083] 以上、図面と明細書とで最適の実施形態が開示された。ここで、特定の用語が使われたが、これは、単に本発明を説明するための目的で使われたものであって、意味限定や特許請求の範囲に記載の本発明の範囲を制限するために使われたものではない。したがって、当業者ならば、これより多様な変形及び均等な他実施形態が可能であるという点を理解できるであろう。したがって、本発明の真の技術的保護範囲は、特許請求の範囲の技術的思想によって決定されるべきである。]
[0084] 本発明は、ユビキタス産業分野のうち、特に、客体位置の測定分野に利用されうる。]
权利要求:

請求項1
客体位置の測定方法において、客体平面に位置する客体及び前記客体に対応する基準点を仮想ビューアブル平面及び実際カメラ平面に投影する段階と、前記客体に対応する基準点の座標を推定する段階と、前記客体の位置と前記基準点の座標との関係を規定する段階と、を備える客体位置の測定方法。
請求項2
前記仮想ビューアブル平面は、前記客体平面に平行である請求項1に記載の客体位置の測定方法。
請求項3
前記各平面は、イメージング装置のズーミング及びパンニングを支援する請求項1に記載の客体位置の測定方法。
請求項4
前記客体は、一つのセンサーによって投影される請求項1に記載の客体位置の測定方法。
請求項5
前記客体は、多数のセンサーによって投影される請求項1に記載の客体位置の測定方法。
請求項6
前記多数のセンサーにより投影された客体及び基準点に対する位置測定の差を互いに補償する段階をさらに備える請求項5に記載の客体位置の測定方法。
請求項7
前記多数のセンサーは、各センサーのパンファクターに基づいて選択される請求項5に記載の客体位置の測定方法。
請求項8
前記多数のセンサーは、各センサーのパンファクターの絶対値の差が“0”であるセンサーで選択される請求項7に記載の客体位置の測定方法。
請求項9
前記客体の位置と前記基準点の座標との関係を規定する段階では、前記客体の位置と前記基準点の位置とが一致する場合、前記基準点の位置を前記客体の位置として測定する請求項1に記載の客体位置の測定方法。
請求項10
前記客体位置の測定方法は、1回行われる請求項1に記載の客体位置の測定方法。
請求項11
前記客体位置の測定方法は、反復的に行われる請求項1に記載の客体位置の測定方法。
类似技术:
公开号 | 公开日 | 专利标题
Bok et al.2016|Geometric calibration of micro-lens-based light field cameras using line features
Wasenmüller et al.2016|Comparison of kinect v1 and v2 depth images in terms of accuracy and precision
Chen et al.2002|Scalable alignment of large-format multi-projector displays using camera homography trees
Stein1995|Accurate internal camera calibration using rotation, with analysis of sources of error
Wei et al.1994|Implicit and explicit camera calibration: Theory and experiments
US8600147B2|2013-12-03|System and method for remote measurement of displacement and strain fields
CN102472609B|2014-11-05|位置和姿势校准方法及设备
KR100835759B1|2008-06-05|이미지 프로젝터, 경사각 검출방법, 및 투사 이미지정정방법
CN102914293B|2015-10-14|信息处理设备和信息处理方法
Soloff et al.1997|Distortion compensation for generalized stereoscopic particle image velocimetry
Prescott et al.1997|Line-based correction of radial lens distortion
JP6176114B2|2017-08-09|投影像自動補正システム、投影像自動補正方法およびプログラム
US7492357B2|2009-02-17|Apparatus and method for detecting a pointer relative to a touch surface
Zhou et al.2005|Complete calibration of a structured light stripe vision sensor through planar target of unknown orientations
Mallon et al.2007|Which pattern? Biasing aspects of planar calibration patterns and detection methods
CN103292710B|2016-01-06|一种应用双目视觉视差测距原理的距离测量方法
You et al.1999|Hybrid inertial and vision tracking for augmented reality registration
Schreier et al.2004|Advances in light microscope stereo vision
JP4995395B2|2012-08-08|物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法、タッチシステムおよびタッチシステムの較正方法と媒体
Chen et al.2000|Wide area camera calibration using virtual calibration objects
CN104142157B|2017-08-25|一种标定方法、装置及设备
Zhang2004|Camera calibration with one-dimensional objects
EP1596330B1|2012-03-28|Estimating position and orientation of markers in digital images
US8208029B2|2012-06-26|Method and system for calibrating camera with rectification homography of imaged parallelogram
JP2012253758A|2012-12-20|車両視覚システムの較正方法および車両視覚システム
同族专利:
公开号 | 公开日
KR100927096B1|2009-11-13|
WO2009107894A1|2009-09-03|
CN101960326B|2013-06-12|
US20100328455A1|2010-12-30|
KR20090092490A|2009-09-01|
US8432443B2|2013-04-30|
CN101960326A|2011-01-26|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题
法律状态:
2012-06-14| A977| Report on retrieval|Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120613 |
2012-12-10| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121207 |
2013-03-05| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130304 |
2014-01-08| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140107 |
2014-04-04| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140403 |
2014-11-05| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141104 |
2015-01-30| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150130 |
2015-07-08| A02| Decision of refusal|Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150707 |
优先权:
申请号 | 申请日 | 专利标题
[返回顶部]