TOP > 国内特許検索 > 身まねロボットシステムとその身まね動作制御方法

身まねロボットシステムとその身まね動作制御方法

国内特許コード P08A013649
整理番号 10970
掲載日 2008年8月22日
出願番号 特願2005-008578
公開番号 特開2006-192548
登録番号 特許第4463120号
出願日 平成17年1月17日(2005.1.17)
公開日 平成18年7月27日(2006.7.27)
登録日 平成22年2月26日(2010.2.26)
発明者
  • 大西 正輝
  • 小田島 正
  • 羅 志偉
出願人
  • 独立行政法人理化学研究所
発明の名称 身まねロボットシステムとその身まね動作制御方法
発明の概要

【課題】 人間の運動情報と感覚情報の両方を「身まね」することができ、変化する対象物(人や物)に対応してその運動を高い頻度で再現することができ、これにより変化する対象物と接するような仕事を行なわせることができる身まねロボットシステムとその身まね動作制御方法を提供する。
【解決手段】 人2がロボット10に没入する形でロボットを操作して対象物に対応して所望の動作を行わせ、該動作中の運動情報と感覚情報を取得する教示ステップと、教示ステップで得られた運動情報と感覚情報を基に、ロボット10に所望の動作を身まねさせる身まねステップとからなり、身まねステップにおいて、対象物1の変化に対応して、教示ステップで取得した運動軌跡を身まね中の感覚情報を使って空間的に変更しかつ時間的に伸縮させる。
【選択図】 図7

従来技術、競合技術の概要


人間の運動を見て真似ることを通常「見まね」と呼ぶ。しかし、本発明では、直接的に制御に用いることが困難な感覚情報(視覚、触覚、聴覚及びそれらを統合して認知した情報等)を含め、運動情報と感覚情報の両方をまねることを「身まね」と呼ぶ。



従来から、「見まね学習」をキーワードとして、人間の動きを観察しこれをロボットの構造に合わせた運動に変換し、ロボットに人間に似た運動を行わせる方法が提案されている(例えば非特許文献1、2)。しかし、従来の方法は例えば人間の関節角度を測るなど運動情報の観察のみに留まっており、感覚情報と運動情報の両方を計測し、それらを統合することによって新たに運動を生成する手段は存在しなかった。



一方、コンピュータグラフィクスにより立体的な仮想空間を体験させる技術として、CAVEシステム(非特許文献3)に代表される没入型の立体映像表示技術が知られている。この技術では、ユーザが立体視用の特殊眼鏡を装着することによって、立体的な仮想空間を体現することができる。



CAVEシステムでは、2.5~3m四方のスクリーンを用い、これをユーザを取り囲むように、前面、左右、床面に設置する。床面のスクリーンには上方から、それ以外のスクリーンには後方から、それぞれ立体用プロジェクタにより立体映像が投影される。ユーザの頭部には6自由度の位置センサが取り付けられ、ユーザの視点位置から見た立体映像がスクリーン上に表示される。ユーザは立体視可能な眼鏡を装着してCAVEの中に立つことで、広い視野の立体映像に囲まれ、没入感の高い感覚を得ることができる。



また、CAVEシステムの発展形として開発されたCABIN(5面スクリーン版CAVE)が非特許文献4の論文で発表されている。さらに、没入型画像提示装置として、特許文献1~3が開示されている。



特許文献1の「没入型表示システム」は、周囲環境中の特徴及びオブジェクトに対するユーザの頭部の位置及び角度を判定することを可能にすることを目的とし、図11に示すように、光学相関器50を含む表示ユニットと、該光学相関器からのイメージ出力信号に基づいてイメージを表示する視覚的表示装置52とを備えたものである。



特許文献2の「臨場感型仮想現実提供処理方法および装置」は、臨場感の高い仮想世界を体験者に提供することを目的とするものであり、立体視による仮想環境とフォースフィードバックを用いており、体験者の動きデータを計測し、視点を検出し、体験者のアバタの動きを決定して動き可能に表示させ、フォースフィードバック処理によって仮想物体の動きをもとに体験者が持つ操作インターフェースに力覚提示を行うものである。



特許文献3の「没入型表示装置および方法」は、図12に示すように、コンピュータで生成された3次元仮想世界映像をユーザ61を取り囲むように立体視可能なかたちで表示するものであり、視点位置検知部62、合成情報表示部63、3次元情報表示部64、2次元情報生成部65、3次元情報生成部66、および情報合成部67を有するものである。



さらに本発明に関連する「3次元動力学シミュレータ」は、仮想空間内の仮想対象物の運動を計算によって求めるソフトウェアライブラリであり、例えば非特許文献5に開示されている。




【非特許文献1】中西 淳、A.J.Ijspeert,S.Schaal, and G.Cheng,"運動学習プリミティブを用いたロボットの見まね学習",日本ロボット学会誌、vol.22, No.2,pp.165-170,2004

【非特許文献2】T.Inamura, I.Toshima, H.Tanie, and Y.Nakamura,"Embodied Symbol Emergence Based on Mimesis Theory", International Journal of Robotics Research, vol.23, No.4, pp.363-377, 2004

【非特許文献3】C.Cruz-Neira,D.Sandin,T.DeFanti "Surround-Screen Projection Based Virtual Reality:The Design and Implementation of the CAVE", Proceedings of SIGGRAOH 92, pp.135-142, 1993

【非特許文献4】廣瀬通孝,小木哲郎,石綿昌平,山田俊郎,「多面型全天周ディスプレイ(CABIN)の開発とその特性評価」,電子情報通信学会論文誌 D-II,Vol.J81-D-II,No.5,pp.888-896,(1998)

【非特許文献5】3次元動力学シミュレータ、Critical Mass Labs社のVortex、インターネット<URL:http://www.cm-labs.com/>




【特許文献1】特開2002-91696号公報、「没入型表示システム」

【特許文献2】特開2002-123840号公報、「臨場感型仮想現実提供処理方法および装置」

【特許文献3】特開2003-141573号公報、「没入型表示装置および方法」

産業上の利用分野


本発明は、人間の運動を身まねして動作する身まねロボットシステムとその身まね動作を制御する方法に関する。

特許請求の範囲 【請求項1】
教示対象のロボットからの感覚情報を用いて生成された3次元仮想世界映像を基に前記教示対象のロボットを操作し対象物に所望の動作を行、該動作中の前記教示対象のロボットの教示動作である運動情報と前記教示対象のロボットの状態を示す感覚情報を取得する教示ステップと、
教示ステップで得られた運動情報と感覚情報を基に、前記ロボットに所望の動作を身まねさせる身まねステップとからなり、
前記身まねステップにおいて、前記対象物の変化に対応して、身まね制御装置は前記対象物の位置が教示ステップで取得した感覚情報に含まれる前記対象物と前記教示対象のロボットの相対的位置情報に同じになるように前記教示対象のロボットの位置を変更する運動情報の空間的変更と、現在の感覚情報の時系列データと教示ステップにおける感覚情報の時系列データを比較し、教示ステップにおける現在の時刻に対応する教示ステップでの時刻を求め、求めた教示ステップでの時刻におけるロボットの運動情報を実行するよう制御する運動情報の時間的伸縮を行う、ことを特徴とするロボットの身まね動作制御方法。

【請求項2】
前記教示ステップにおいて、人の運動に追従して動く仮想被験者を仮想の前記ロボットとみなし、動力学シミュレーション環境下で仮想的に設置した力センサや触覚センサから得られる値と、視覚センサから得られる画像を感覚情報として取得する、ことを特徴とする請求項1に記載のロボットの身まね動作制御方法。

【請求項3】
前記教示ステップにおいて、所望の動作が可能な実体のある前記ロボットとディスプレイ装置を用い、教示対象の前記ロボットからの感覚情報を用いて生成された3次元仮想世界映像に基づき、人が前記ロボットに動作を行わせ、該ロボットに取り付けた触覚センサ及びカメラから運動情報と共に感覚情報も同時に取得することを特徴とする請求項1に記載のロボットの身まね動作制御方法。

【請求項4】
前記身まねステップにおいて、身まね中の感覚情報と教示ステップで取得した感覚情報を比較して、教示ステップで取得した感覚情報と同じ感覚情報が得られるように身まね中の運動軌跡を変更する、ことを特徴とする請求項1に記載のロボットの身まね動作制御方法。

【請求項5】
前記身まねステップにおいて、身まね中の感覚情報と教示ステップで取得した感覚情報を比較評価し、評価値が一致するような時間を探索して身まね中の運動軌跡を時間的に伸縮させる、ことを特徴とする請求項1に記載のロボットの身まね動作制御方法。

【請求項6】
前記身まねステップにおいて、類似度Cを用いて身まね中の感覚情報と教示ステップで取得した感覚情報を比較評価し、得られた類似度Cが最も大きい教示ステップにおける時刻の運動軌跡を身まねで使用する、ことを特徴とする請求項1に記載のロボットの身まね動作制御方法。

【請求項7】
対象物に対して所望の動作が外部からの入力信号に基づき作動可能な仮想的又は実体のあるロボットと、教示対象の前記ロボットからの感覚情報を用いて生成された3次元仮想世界映像を表示するディスプレイ装置と、前記教示対象のロボットの教示動作である運動情報と前記教示対象のロボットの状態を示す感覚情報を記憶する記憶装置を有する身まね制御装置と、を備え、
身まね制御装置により、前記対象物の変化に対応して、前記対象物の位置が記憶した前記感覚情報に含まれる前記対象物と前記教示対象のロボットの相対的位置情報に同じになるように前記教示対象のロボットの位置を変更する運動情報の空間的変更と、現在の感覚情報の時系列データと記憶した前記感覚情報の時系列データを比較し、現在の感覚情報における現在の時刻に対応する記憶した前記感覚情報の時刻を求め、記憶した前記感覚情報の時刻におけるロボットの運動情報を実行するよう制御する運動情報の時間的伸縮を行う、ことを特徴とする身まねロボットシステム。

【請求項8】
前記ロボットは、人の運動に追従して動く仮想被験者である仮想のロボットである、ことを特徴とする請求項に記載の身まねロボットシステム。

【請求項9】
前記ディスプレイ装置は、3次元仮想空間内に位置する実在する人の位置及び動作を検出する運動情報検出手段と、該人の位置及び動作を3次元仮想空間内に仮想被験者として提示する仮想被験者提示手段とからなる、ことを特徴とする請求項に記載の身まねロボットシステム。
産業区分
  • その他運輸
  • 工業用ロボット
国際特許分類(IPC)
Fターム
画像

※ 画像をクリックすると拡大します。

JP2005008578thum.jpg
出願権利状態 権利存続中
ライセンスをご希望の方、特許の内容に興味を持たれた方は、下記「問合せ先」まで直接お問い合わせください。


PAGE TOP

close
close
close
close
close
close
close