Top > Search of Japanese Patents > AVATAR OPERATION CONTROL SYSTEM, ITS PROGRAM, AND METHOD

AVATAR OPERATION CONTROL SYSTEM, ITS PROGRAM, AND METHOD meetings

Patent code P09A014782
Posted date Nov 13, 2009
Application number P2006-162666
Publication number P2007-334443A
Patent number P4848515
Date of filing Jun 12, 2006
Date of publication of application Dec 27, 2007
Date of registration Oct 28, 2011
Inventor
  • (In Japanese)尾下 真樹
Applicant
  • (In Japanese)国立大学法人九州工業大学
Title AVATAR OPERATION CONTROL SYSTEM, ITS PROGRAM, AND METHOD meetings
Abstract PROBLEM TO BE SOLVED: To provide an avatar operation control system for a virtual reality application using the eye point of a third person for achieving the natural reaction operation of an avatar when receiving an impact or the like.
SOLUTION: Follow-up control is performed by the follow-up control of an input attitude and the follow-up control of a generating operation by the mixing rate of follow-up control to be determined based on the input attitude and/or the current status of an avatar, so that the current status of the avatar can follow up the input attribute, and that the current status of the avatar can follow up the generating operation, that is, the current status of the avatar can follow up not only the input attribute but also the generating operation. Thus, it is possible to achieve a natural operation matched with the real world by making the avatar operate by a motion capture device, and making the avatar operate by the generating operation when coming under predetermined conditions.
Outline of related art and contending technology (In Japanese)


モーションキャプチャー技術は色々な領域で用いられており、例えば、映画、動作分析、ゲームで使用されている。現在は、これらのオフライン向けに主に利用されているが、コンピュータゲームなどにおける操作インターフェースとしての期待も大きい。



モーションキャプチャー装置を入力装置として用いることで、利用者は仮想空間内でのアバター(利用者が操作する仮想人間)の全身の動作を制御し、さまざまな動作を行わせることが可能となる。



発明者は、このようなアプリケーションにおいては、第三者視点を利用することが最適であると考える(図16参照)。現在、多くの仮想現実アプリケーションでは、まるで利用者が仮想空間内にいるかのように感じる本人視点が用いられている。しかし、キャラクターの動きが重要となる格闘ゲーム等のアプリケーションにおいて、本人視点は適切ではない。現実世界では、我々人間は、感覚を通じて自分の体の動きや、他のキャラクターや物体との物理的な接触を感じることができる。しかしながら、現在の仮想現実アプリケーションでは、視覚的な情報や限られた触覚デバイスしか用いることができないため、そのよう感触を利用者が感じることはできない。そこで、利用者自身をアバターとして見る第三者視点を用いることで、利用者は動きと他のオブジェクトとの可視的な相互作用を感じることができる。これが、発明者が、第三者視点がエンターテイメントアプリケーションにより適しているとする理由である。



そのようなアプリケーションを実現するために解決するべき問題として、2つの主な問題がある。1つ目の問題は、アバターはモーションキャプチャー装置からの入力にもとづき制御されるため、例えばアバターが他のキャラクタと衝突したときのリアクション動作など、環境からアバターへの物理的相互作用を実現することは難しい、ということである。これは、仮想空間内でアバターに物理的な影響が加えられても、利用者にその力を作用させることはできないからである。また、2つ目の問題として、仮想環境と比べモーションキャプチャーの領域は狭いため利用者が歩き回ることは困難である、という問題がある。現在の仮想現実システムでは、ナビゲーション向けのゲームパッド、3Dポインティングインターフェースのような追加的な装置が用いることでこのような問題を解決しているが、発明者が想定しているようなモーションキャプチャー装置を使用して全身動作を制御するシステムでは、このような追加的な装置を使用することは難しい。



ところで、モーションキャプチャーを入力装置としたキャラクター制御については、いくつかの研究がある(非特許文献1)。しかしながら、多くのシステムでは、入力姿勢をそのままキャラクターの動作の制御に用いており、キャラクターと環境の物理的相互作用は考慮されていない。
これに対し、非特許文献2で本発明に関連するシステムが提案されている。つまり、第三者視点及び追従制御を用いている。



また、非特許文献3では、マーシャルアーツの格闘ゲームにおいて、横から見た第三者視点を用いている。モーションキャプチャー装置から取得した利用者の姿勢をもとにアバターを制御し、コンピュータグラフィックスを用いてアバターを画面に描画する代わりに、カメラからリアルタイムの取得された利用者の動画像を直接画面に描画している。
【非特許文献1】
Shin, H.J., Lee, J., Gleicher, M., Shin, S.Y. Computer Puppetry: An Importance-Based Approach, ACM Transactions on Graphics. 20 (2), 67-94, 2001.
【非特許文献2】
Hasegawa, S., Ishikawa, T., Naoki Hashimoto, N. Human Scale Haptic Interaction with a Reactive Virtual Human in a Realtime Physics Simulator. In Proc. of Advances in Computer Entertainment Technology 2005.
【非特許文献3】
Hamalainen, P., Ilmonen, T., Hoysniemi, J., Lindholm, M., Nykanen, A. Martial Arts in Artificial Reality, Proceedings of ACM Conference on Human Factors in Computing Systems (CHI 005), 781-790, 2005.

Field of industrial application (In Japanese)


本発明は、3次元空間内での利用者の動きを測定し、コンピュータに取り込むモーションキャプチャー装置を入力装置として利用し、仮想空間内に描画されるアバター(利用者が操作する仮想人間)のアバター動作制御に関する。

Scope of claims (In Japanese)
【請求項1】
 
モーションキャプチャー装置と、
前記モーションキャプチャー装置から得られた利用者の入力姿勢とアバターの現在の状態から前記アバターの動作を追従制御する第1の追従制御手段と、
前記アバターの動作情報を予め記憶する動作情報記憶手段と、
前記動作情報記憶手段に記憶されている動作情報に基づいて、前記アバターの動作を生成する動作生成手段と、
前記動作生成手段が生成した動作を追従制御する第2の追従制御手段と、
前記アバターの現在の状態に基づいて、当該アバターの現在の状態が前記利用者の入力姿勢のみからは制御できない受動的な状態であり、前記利用者の入力姿勢とは異なる動作を前記アバターに行わせると判断される場合、又は、前記利用者の入力姿勢に基づいて、当該入力姿勢と異なる動作を前記アバターに行わせると判断される場合に、前記アバターに行わせる目標となる動作を特定して前記動作生成手段に制御信号を送ると共に、前記第1の追従制御手段による追従制御と、前記第2の追従制御手段による追従制御との混合比率を決定する制御指令手段と、
前記制御指令手段が決定した混合比率にしたがって、前記アバターの状態を変更する状態変化計算手段とを備え、
前記制御指令手段が、前記目標となる動作の動作変化に応じて、前記混合比率を変化させて決定することを特徴とするアバター動作制御システム。

【請求項2】
 
請求項1に記載のアバター制御システムにおいて、
前記制御指令手段が、
前記アバターの動作状態が前記利用者の入力姿勢による制御の困難性を示す段階が大きくなるにしたがって、又は、前記入力姿勢と前記アバターに行わせる目標となる動作とが異なる度合いが大きくなるにしたがって、前記第2の追従制御手段が追従制御する割合を大きくすることを特徴とするアバター制御システム。

【請求項3】
 
請求項1又は2に記載のアバター制御システムにおいて、
前記制御指令手段が、
前記アバターの身体の部位ごとに前記混合比率を異ならせて決定することを特徴とするアバター動作制御システム。

【請求項4】
 
請求項1ないし3のいずれかに記載のアバター制御システムにおいて、
前記制御指令手段が、
前記目標となる動作が、前記アバターへの外的な作用に対するリアクション動作である場合に、前記目標となる動作として前記リアクション動作を特定し、前記動作生成手段に前記特定されたリアクション動作に関する制御信号を送ると共に、前記アバターが受けた外的な作用に応じた前記アバターの動作状態に対応する混合比率を決定することを特徴とするアバター制御システム。

【請求項5】
 
請求項1ないし3のいずれかに記載のアバター制御システムにおいて、
前記制御指令手段が、
前記目標となる動作が、前記アバターを移動させる動作である場合に、前記目標となる動作として前記移動させる動作を特定し、前記動作生成手段に前記特定された移動させる動作に関する制御信号を送ると共に、前記目標となる動作の動作変化に応じて前記混合比率を決定することを特徴とするアバター制御システム。

【請求項6】
 
モーションキャプチャー装置から得られた利用者の入力姿勢とアバターの現在の状態から前記アバターの動作を追従制御する第1の追従制御手段、
前記アバターの動作情報を予め記憶する動作情報記憶手段、
前記動作情報記憶手段に記憶されている動作情報に基づいて、前記アバターの動作を生成する動作生成手段、
前記動作生成手段が生成した動作を追従制御する第2の追従制御手段、
前記アバターの現在の状態に基づいて、当該アバターの現在の状態が前記利用者の入力姿勢のみからは制御できない受動的な状態であり、前記利用者の入力姿勢とは異なる動作を前記アバターに行わせると判断される場合、又は、前記利用者の入力姿勢に基づいて、当該入力姿勢と異なる動作を前記アバターに行わせると判断される場合に、前記アバターに行わせる目標となる動作を特定して前記動作生成手段に制御信号を送ると共に、前記第1の追従制御手段による追従制御と、前記第2の追従制御手段による追従制御との混合比率を決定する制御指令手段、
前記制御指令手段が決定した混合比率にしたがって、前記アバターの状態を変更する状態変化計算手段としてコンピュータを機能させ、
前記制御指令手段が、前記目標となる動作の動作変化に応じて、前記混合比率を変化させて決定することを特徴とするアバター動作制御プログラム。
IPC(International Patent Classification)
F-term
Drawing

※Click image to enlarge.

JP2006162666thum.jpg
State of application right Registered
Please contact us by E-mail or facsimile if you have any interests on this patent.


PAGE TOP

close
close
close
close
close
close
close