TOP > 国内特許検索 > 起立及び移動動作支援装置、起立及び移動動作支援プログラム、並びに起立及び移動動作支援方法 > 明細書

明細書 :起立及び移動動作支援装置、起立及び移動動作支援プログラム、並びに起立及び移動動作支援方法

発行国 日本国特許庁(JP)
公報種別 特許公報(B2)
特許番号 特許第5240772号 (P5240772)
公開番号 特開2010-125296 (P2010-125296A)
登録日 平成25年4月12日(2013.4.12)
発行日 平成25年7月17日(2013.7.17)
公開日 平成22年6月10日(2010.6.10)
発明の名称または考案の名称 起立及び移動動作支援装置、起立及び移動動作支援プログラム、並びに起立及び移動動作支援方法
国際特許分類 A61H   3/00        (2006.01)
FI A61H 3/00 Z
請求項の数または発明の数 7
全頁数 14
出願番号 特願2008-306914 (P2008-306914)
出願日 平成20年12月1日(2008.12.1)
審査請求日 平成23年9月27日(2011.9.27)
特許権者または実用新案権者 【識別番号】305027401
【氏名又は名称】公立大学法人首都大学東京
発明者または考案者 【氏名】新田 收
【氏名】山口 亨
【氏名】藤本 泰成
【氏名】中村 篤弘
個別代理人の代理人 【識別番号】100150876、【弁理士】、【氏名又は名称】松山 裕一郎
審査官 【審査官】山口 賢一
参考文献・文献 特開2007-202924(JP,A)
特開2004-167022(JP,A)
特開2003-047635(JP,A)
特開平11-047196(JP,A)
特開2007-301071(JP,A)
調査した分野 A61H 3/00
特許請求の範囲 【請求項1】
筐体と、
前記筐体の後方に設けられ、ユーザが着座可能な着座部の上方に設けられた第一検出部と、着座部の下方に設けられた第二検出部とからなり、着座に対するユーザの上半身及び下半身の位置及び向きを検出する相対位置検出部と、
前記着座部の背中側から上方に延び、かつ左右に分かれて配され、ユーザに把持される左右一対の被把持部と、
前記被把持部のそれぞれの先端側に配された複数の圧力センサからなり、前記被把持部の把持力を検出する把持検出部と、
水平移動方向及び水平移動速度に基づき前記筐体を移動させる移動部と、を備えると共に、
上記相対位置検出部からの情報及び上記把持検出部からの情報を入力してユーザの状況を判断し、前記移動部を制御する制御部を具備し、
前記制御部は、
前記相対位置検出部より得られる前記位置及び向きに関する情報から、前記筐体に対するユーザの姿勢を解析する姿勢評価手段と、
前記把持検出部からの情報より把持状態を解析する把持状態算出手段と、
前記姿勢評価手段により解析された前記姿勢及び把持状態算出手段により解析された前記把持状態に基づき、ユーザの状況を判別する状況判別手段と、
前記状況判別手段により判別された前記状況に合わせて前記筐体の水平移動方向及び水平移動速度を算出する移動制御手段と、
を備えていることを特徴とする起立及び移動動作支援装置。
【請求項2】
更に、ユーザの画像を取得する撮像部材と、
前記画像から前記筐体に対するユーザの顔の向き、指差し方向を算出してユーザの意図を認識するジェスチャ認識部と、
を備え、
前記移動制御手段が、ユーザの前記意図に基づき前記筐体の水平移動方向及び水平移動速度を算出することを特徴とする請求項1に記載の起立及び移動動作支援装置。
【請求項3】
前記筐体が、さらに着座部と、
ユーザが前記着座部に着席した状態におけるユーザの上半身の位置及び向きを検出する着座姿勢検出部を備え、
前記移動制御手段が、前記位置及び向きに基づき前記筐体の水平移動方向を算出することを特徴とする請求項1又は2に記載の起立及び移動動作支援装置。
【請求項4】
コンピュータを、
筐体に対するユーザの上半身及び下半身の位置及び向きに関する情報から、前記筐体に対するユーザの姿勢を解析する姿勢評価手段と、
ユーザの把持力に関する情報から把持状態を解析する把持状態算出手段と、
前記姿勢評価手段により解析された前記姿勢及び把持状態算出手段により解析された前記把持状態に基づき、ユーザの状況を判別する状況判別手段と、
前記状況判別手段により判別された前記状況に合わせて前記筐体の水平移動方向及び水平移動速度を算出する移動制御手段
の各手段を行い、請求項1に記載の起立及び移動動作支援装置における制御部として機能させることを特徴とする起立及び移動動作支援プログラム。
【請求項5】
請求項1に記載の起立及び移動動作支援装置を用いた起立及び移動動作支援方法であって、
前記筐体に対するユーザの位置及び向きに関する情報、並びに前記筐体に配された被把持部の把持力に関するデータを取得するデータ取得ステップと、
前記データからユーザの姿勢及び前記被把持部の把持状態を解析するデータ解析ステップと、
解析された前記姿勢及び前記把持状態に基づき、ユーザの状況を判別する評価ステップと、
前記状況に合わせて前記筐体の水平移動方向及び水平移動速度を算出する移動指示ステップと、
前記水平移動方向及び前記水平移動速度にて筐体を移動させる移動ステップと、
を備えていることを特徴とする起立及び移動動作支援方法。
【請求項6】
前記評価ステップが、
前記筐体に配された着座部への着座の有無を判別する着座判別ステップと、
前記筐体から所定範囲内におけるユーザの有無を判別するユーザ有無判別ステップと、
前記筐体に対するユーザの上半身及び下半身の位置及び向きを検出し、前記筐体に対するユーザの姿勢を評価する姿勢評価ステップと、
を備えていることを特徴とする請求項5に記載の起立及び移動動作支援方法。
【請求項7】
ユーザの画像を取得する撮像ステップと、
前記画像から前記筐体に対するユーザの顔の向き、指差し方向を算出してユーザの意図を認識するジェスチャ認識ステップと、
を備え、
前記移動指示ステップが、前記意図に基づき前記筐体の水平移動方向及び水平移動速度を算出することを特徴とする請求項5又は6に記載の起立及び移動動作支援方法。
発明の詳細な説明 【技術分野】
【0001】
本発明は、起立及び移動動作支援装置、起立及び移動動作支援プログラム、並びに起立及び移動動作支援方法に関する。
【背景技術】
【0002】
高齢者等の要介護者の増大に伴い、介護を支援する介護支援用具により要介護者の介護を支援することが一般的に行われるようになっている。近年、高齢者のますますの増加に伴い、要介護者の増加に対応すべく、高度な介護支援が可能となる介護支援用具についての需要が高まっている。
【0003】
このような介護支援用具として、例えば、着席状態から起立状態へ移るときに補助が必要となる高齢者等の要介護者に対して、壁面に取り付けた手すりをアクチュエータで移動させ、これを把持する要介護者がスムーズに起立状態へ移行するのを支援する起立支援装置が提案されている(例えば、特許文献1参照。)。
【0004】

【特許文献1】特開2007-195814号公報
【発明の開示】
【発明が解決しようとする課題】
【0005】
しかしながら、上記従来の支援装置は、移動可能なフレーム(枠体)に固定配置されているので,要介護者等のユーザは、そのフレームの設置場所においてのみ恩恵を受けることができるにとどまる。また、着席状態から起立状態、起立状態から歩行状態への移行にそれぞれ補助が必要とはいえ、このような支援装置に過度に依存した場合、ユーザ自身の運動能力のさらなる低下につながりやすく、介護支援の観点から好ましくない場合がある。
【0006】
本発明は上記事情に鑑みて成されたものであり、ユーザの筋力が弱くても着座状態から起立状態、起立状態から歩行状態へのそれぞれスムーズな移行を支援でき、かつユーザの運動能力の低下を抑制できる起立及び移動動作支援装置、起立及び移動動作支援プログラム、並びに起立及び移動動作支援方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明は、上記課題を解決するため、以下の手段を採用する。
本発明に係る起立及び移動動作支援装置は、筐体と、前記筐体に対するユーザの上半身及び下半身の位置及び向きを検出する相対位置検出部と、前記位置及び向きから、前記筐体に対するユーザの姿勢を解析する姿勢評価部と、前記筐体に配されて把持される被把持部と、前記被把持部の把持力を検出する把持検出部と、前記被把持部の把持状態を前記把持力から解析する把持状態算出部と、前記姿勢及び前記把持状態に基づき、ユーザの状況を判別する状況判別部と、前記状況に合わせて前記筐体の水平移動方向及び水平移動速度を算出する移動制御部と、前記水平移動方向及び水平移動速度に基づき前記筐体を移動させる移動部と、を備えていることを特徴とする。
【0008】
また、本発明に係る起立及び移動動作支援装置は、前記起立及び移動動作支援装置であって、ユーザの画像を取得する撮像部材と、前記画像から前記筐体に対するユーザの顔の向き、指差し方向を算出してユーザの意図を認識するジェスチャ認識部と、を備え、前記移動制御部が、ユーザの前記意図に基づき前記筐体の水平移動方向及び水平移動速度を算出することを特徴とする。
【0009】
また、本発明に係る起立及び移動動作支援装置は、前記起立及び移動動作支援装置であって、前記筐体が着座部を備え、ユーザが前記着座部に着席した状態におけるユーザの上半身の位置及び向きを検出する着座姿勢検出部を備え、前記移動制御部が、前記位置及び向きに基づき前記筐体の移動方向を算出することを特徴とする。
【0010】
また、本発明に係る起立及び移動動作支援プログラムは、コンピュータを、筐体に対するユーザの上半身及び下半身の位置及び向きを検出し、前記筐体に対するユーザの姿勢を解析する姿勢評価部、前記筐体に配された被把持部への把持力から前記被把持部の把持状態を解析する把持状態算出部、前記姿勢及び前記把持状態に基づき、ユーザの状況を判別する状態判別部、前記状況に基づき、前記筐体の水平移動方向及び水平移動速度を算出する移動制御部、として機能させることを特徴とする。
【0011】
また、本発明に係る起立及び移動動作支援方法は、筐体に対するユーザの位置及び向き、並びに前記筐体に配された被把持部の把持力に関するデータを取得するデータ取得ステップと、前記データからユーザの姿勢及び前記被把持部の把持状態を解析するデータ解析ステップと、前記姿勢及び前記把持状態に基づき、ユーザの状況を判別する評価ステップと、前記状況に合わせて前記筐体の水平移動方向及び水平移動速度を算出する移動指示ステップと、前記水平移動方向及び前記水平移動速度にて筐体を移動させる移動ステップと、を備えていることを特徴とする。
【0012】
また、本発明に係る起立及び移動動作支援方法は、前記起立及び移動動作支援方法であって、前記評価ステップが、前記筐体に配された着座部への着座の有無を判別する着座判別ステップと、前記筐体から所定範囲内におけるユーザの有無を判別するユーザ有無判別ステップと、前記筐体に対するユーザの上半身及び下半身の位置及び向きを検出し、前記筐体に対するユーザの姿勢を評価する姿勢評価ステップと、を備えていることを特徴とする。
【0013】
また、本発明に係る起立及び移動動作支援方法は、前記起立及び移動動作支援方法であって、ユーザの画像を取得する撮像ステップと、前記画像から前記筐体に対するユーザの顔の向き、指差し方向を算出してユーザの意図を認識するジェスチャ認識ステップと、を備え、前記移動指示ステップが、前記意図に基づき前記筐体の水平移動方向及び水平移動速度を算出することを特徴とする。
【発明の効果】
【0014】
本発明によれば、ユーザの筋力が弱くても着座状態から起立状態、起立状態から歩行状態へのそれぞれスムーズな移行を支援でき、かつユーザの運動能力の低下を抑制できる。
【発明を実施するための最良の形態】
【0015】
本発明に係る一実施形態について、図1から図12を参照して説明する。
本実施形態に係る電動車椅子(起立及び移動動作支援装置)1は、図1に示すように、ユーザが着座可能な椅子(着座部)2を有する筐体3と、ユーザの画像を取得するカメラ(撮像部材)5と、筐体3に対するユーザの上半身及び下半身の位置及び向きを検出する相対位置検出部6と、ユーザが椅子2に着席した状態におけるユーザの上半身の位置及び向きを検出する着座姿勢検出部7と、筐体3に配されたグリップ(被把持部)8と、グリップ8の把持力を検出する把持検出部10と、筐体3を水平移動させる移動部11と、筐体内に配された制御部12と、を備えている。
【0016】
カメラ5は、筐体3の後方に向かって椅子2の背中側に配されている。
相対位置検出部6は、予め設定された測距領域内でレーザ光を走査してユーザから反射されたレーザ光を検出するレーザレンジファインダ(LRF)で構成され、ユーザの上半身からの反射光を検出する第一LRF6Aと、ユーザの下半身からの反射光を検出する第二LRF6Bと、を備えている。着座姿勢検出部7もレーザレンジファインダであって、椅子2に配されている。なお、相対位置検出部及び着座姿勢検出部は、レーザレンジファインダに限らず、ステレオカメラ等、姿勢の奥行きを撮影して座標を獲得することによって位置及び距離を検出できるものであればよい。
【0017】
グリップ8は、椅子2の背中側から上方に延び、かつ左右に分かれて配されている。
把持検出部10は、図2に示すように、グリップ8の左側及び右側のそれぞれ先端側に配された複数の圧力センサ10aからなり、グリップ8の左側及び右側のそれぞれに加えられた力の分布を検出する。
【0018】
移動部11は、制御部12の指示に基づき駆動力を提供する駆動源11Aと、駆動源11Aからの駆動力が供給されて回転する車輪部11Bと、駆動源11Aからの駆動力を車輪部11Bに伝達する図示しない伝達部と、を備えている。そして、筐体3を所定の水平移動速度で所定の水平移動方向へと移動させる。
【0019】
制御部12は、必要な処理を行うためのプログラム及びデータ等が記憶されたROM(リードオンリーメモリ)、必要なデータを一時的に保存するためのRAM(ランダムアクセスメモリー)、ROM等に記憶されたプログラムに応じた処理を行うCPU(中央演算処理装置)、が内蔵されている。
【0020】
この制御部12は、機能手段(プログラムモジュール)として、ジェスチャ認識部13と、姿勢評価部15と、把持状態算出部16と、状況判別部17と、移動制御部18と、を備えている。
【0021】
ジェスチャ認識部13は、撮像された動画に基づいてユーザのジェスチャを検出するジェスチャ検出部13Aと、ジェスチャから電動車椅子1の移動目標位置を推定する目標推定部13Bと、をさらに備えている。
【0022】
ジェスチャ検出部13Aは、例えば、特願2007-201447に示すように、カメラ5がとらえたユーザの3次元位置から、ユーザの手領域および顔領域の変化(動き)を画像解析して、ユーザのジェスチャを検出する。
目標推定部13Bは、ジェスチャ検出部13Aで検出されたジェスチャから、頭の位置と指先とのなす角度を求め、ユーザが地面を指している地点を算出する。
【0023】
姿勢評価部15は、相対位置検出部6によって検出された、筐体3に対するユーザの上半身及び下半身の位置及び向きから、例えば、特願2007-324224に示すように、筐体3に対するユーザの姿勢を解析する。同様に、着座姿勢検出部7によって検出された、椅子2におけるユーザの上半身の向きから、椅子2におけるユーザの捻り姿勢を解析する。
【0024】
把持状態算出部16は、把持検出部10で検出された把持力からユーザのグリップ8の把持状態を解析する。ここで、手前側の荷重が手先側の荷重よりも大きい場合、ユーザが起立中と判断する。一方、手前側の荷重が手先側の荷重よりも小さい場合、ユーザが歩行前進中と判断する。また、左側のグリップ8の荷重が右側よりも大きい場合、ユーザが左旋回の意図があると判断する。一方、右側のグリップ8の荷重が左側よりも大きい場合、ユーザが右旋回の意図があると判断する。
【0025】
状況判別部17は、姿勢評価部15及び把持状態算出部16にて検出されたユーザの姿勢及び把持状態に基づき、ユーザの状況を判別する。そして、移動制御部18は、判別した状況に合わせて、筐体3の水平移動方向(前進又は旋回)及びその際の水平移動速度を算出し、結果を移動部11へ伝達する。
【0026】
次に、本実施形態に係る起立及び移動動作支援方法について、上述の電動車椅子1の作用とともに説明する。
この起立及び移動動作支援方法は、図3に示すように、データ取得ステップ(S10)と、データ解析ステップ(S20)と、移動量保存ステップ(S30)と、評価ステップ(S40)と、移動指示ステップ(S50)~(S53)と、移動ステップ(S60)~(S63)と、を備えている。
【0027】
データ取得ステップ(S10)は、開始後の初期化に続いて、筐体3に対するユーザの位置及び向き、並びにグリップ8の把持力に関するデータを、相対位置検出部6、着座姿勢検出部7、及び把持検出部10から取得する。
【0028】
データ解析ステップ(S20)は、取得したユーザの上半身及び下半身の位置及び向きに関するデータから、姿勢評価部15及び把持状態算出部16にてユーザの姿勢及びグリップ8の把持状態を解析する。
【0029】
移動量保存ステップ(S30)は、筐体3の移動量のデータをログディスクに保存するとともに、ユーザの運動量を推定する。
【0030】
評価ステップ(S40)は、解析したユーザの姿勢及び把持状態に基づき、状況判別部17にてユーザがどのような状況にあるかを判別する。評価ステップ(S40)は、さらに、着座判別ステップ(S41)と、ユーザ有無判別ステップ(S42)と、姿勢評価ステップ(S43)と、を備えている。
【0031】
着座判別ステップ(S41)は、着座姿勢検出部7から取得・解析したデータに基づき、椅子2へのユーザの着座の有無を判別する。ユーザ有無判別ステップ(S42)は、主に相対位置検出部6から取得・解析したデータに基づき、筐体3から所定範囲内後方にユーザがいるかどうかを判別する。
【0032】
姿勢評価ステップ(S43)は、相対位置検出部6及び把持検出部10から取得・解析したデータに基づき、筐体3に対するユーザの上半身及び下半身の位置及び向きを検出する。この姿勢評価ステップ(S43)は、さらに、ユーザが筐体3の後方において着座姿勢かどうかを評価するステップ(S431)と、起立姿勢かどうかを評価するステップ(S432)と、グリップ8を把持しているかどうかを評価するステップ(S433)と、を備えている。
【0033】
評価ステップ(S40)において判別したユーザの状況に応じて、探索/接近モード(M1)、起立支援モード(M2)、歩行支援モード(M3)、操作支援モード(M4)の各モードに移行する。移動指示ステップ(S50)~(S53)及び移動ステップ(S60)~(S63)は、各モードにてそれぞれ実施される。
【0034】
探索/接近モード(M1)は、着座判別ステップ(S41)にて椅子2に搭乗者がいない、と判別され、かつ、ユーザ有無判別ステップ(S42)にて後方にもユーザがいない、と判別された場合に開始される。
【0035】
探索/接近モード(M1)は、図4及び図5に示すように、カメラ5によるユーザの画像を取得する撮像ステップ(ST1)と、ジェスチャ認識部13にて、得られた画像から筐体3に対するユーザの顔の向き、指差し方向のpointを算出してユーザの意図を認識するジェスチャ認識ステップ(ST2)と、を備えている。
【0036】
ジェスチャ認識ステップ(ST2)にて、ユーザを認識できなかった場合、移動指示ステップ(S50)に移行して、移動制御部18にて筐体3を角度θだけ旋回させるようにし(S501)、移動ステップ(S60)にて実際に車輪部11Bを回転させる(S601)。ここで、再びデータ取得ステップ(S10)に戻る。
【0037】
一方、ユーザを認識でき、かつ、指差しのジェスチャを認識できた場合、移動指示ステップ(S50)に移行し、目標推定部13Bによる移動目標を算出する(S502)とともに、移動制御部18にて移動目標への水平移動に伴う旋回角度及び水平移動速度を算出する。そして、移動制御部18の指示に基づき、移動ステップ(S60)にて実際に車輪部11Bを回転させる(S602)。ユーザが指し示すpoint地点に筐体3が到達後、本モードを解除する。なお、ユーザを認識できても指差しのジェスチャを認識できない場合、再びデータ取得ステップ(S10)に戻る。
【0038】
起立支援モード(M2)は、着座判別ステップ(S41)にて椅子2への搭乗者がいない、と判別され、ユーザ有無判別ステップ(S42)にて筐体3の後方にユーザがいると判別され、かつ、姿勢評価ステップ(S43)にて、ユーザが着座状態であると判別された場合に開始される。
【0039】
ここで、図6及び図7に示すように、相対位置検出部6及び姿勢評価部15にて、相対位置検出部6による検出範囲LRF内で、ユーザの胸元(上半身)の稜線L1の位置が足元(下半身)の稜線L2の位置より筐体3から離間していると解析した場合、グリップ8の把持状態と合わせて状況判別部17が、ユーザが筐体3の後方で着座状態であると判別する。この状態にて本モードを開始する(M21)。
【0040】
移動指示ステップ(S51)及び移動ステップ(S61)では、把持検出部10にてグリップ8の後方への荷重を検知した場合、ユーザが起立を開始したと状況判別部17が判別する。ここで、起立する場合、体重心は、まずは水平方向に移動し、体重心と足元とを結ぶ線が床面に対して垂直になる時点で上昇する。この際、体重心の水平方向の移動量は、時間経過とともに、図8に示すようになる。これをもとに、移動制御部18が所定の速度での前進指示を行い(S511)、筐体3を前進させる(S611)(M22)。
【0041】
ユーザの足元の稜線L2の位置に胸元の稜線L1の位置が近づいたこと、及びグリップ8の荷重が筐体3の前方へ移動していることを検知した場合、状況判別部17はユーザが起立中であると判別する。そして、移動制御部18が筐体3の前進速度を徐々に緩めるよう指示し、移動部11を減速する(M23)。
【0042】
把持検出部10にて後方への荷重が検知されなくなり、かつ、相対位置検出部6にてユーザの胸元の稜線L1の位置と足元の稜線L2の位置とがほぼ同一であることが検出された時点で、踵と体重心とを結ぶ線が鉛直方向より前方へ傾くことになる。この時点で姿勢評価部15及び把持状態算出部16にて、ユーザが起立姿勢であると解析され、これに基づき、状況判別部17はユーザが起立した状態と判別する。そして、移動制御部18が停止指示を行い(S512)、移動部11を停止させ(S612)(M24)て、本モードを解除する。何れの場合も、その後、再度データ取得ステップ(S10)に戻る。
【0043】
歩行支援モード(M3)は、着座判別ステップ(S41)にて椅子2に搭乗者がいない、と判別され、ユーザ有無判別ステップ(S42)にて後方にユーザがいると判別され、かつ、姿勢評価ステップ(S43)にて、ユーザが着座姿勢でなく起立姿勢であると判別された場合に開始される。
【0044】
ここで、図9及び図10に示すように、ユーザの胸元の稜線L1の位置と足元の稜線L2の位置とがほぼ同一の位置にあると相対位置検出部6及び姿勢評価部15にて解析した場合、状況判別部17は、これを起立姿勢と判別して本モードを開始する。
【0045】
移動指示ステップ(S52)及び移動ステップ(S62)では、左右のグリップ8に付加される荷重が何れもグリップ8の前方への荷重であることを把持検出部10及び把持状態算出部16にて検知した場合、状況判別部17は、ユーザが前進したい、若しくは前進している状態と判別する。そして、移動制御部18にて所定の速度での前進指示を行い(S521)、移動部11にて筐体3を前進させる(S621)(M31)。
【0046】
また、左右のグリップ8の前方への荷重のうち、右側の荷重のほうが左側よりも大きいことを把持検出部10及び把持状態算出部16にて検知した場合、状況判別部17は、ユーザが左旋回したい、若しくは左旋回している状態と判別する。そして、移動制御部18が所定の速度での左旋回指示を行い(S522)、移動部11にて筐体3を左旋回させる(S622)(M31)。
【0047】
一方、左右のグリップ8の前方へ付加される荷重のうち、左側の荷重のほうが右側よりも大きいことを把持検出部10及び把持状態算出部16にて検知した場合、状況判別部17は、ユーザが右旋回したい、若しくは右旋回している状態と判別する。そして、移動制御部18が所定の速度での右旋回指示を行い(S523)、移動部11にて筐体3を右旋回させる(S623)(M31)。
【0048】
ここで、ユーザの胸元の稜線L1の位置が足元の稜線L2の位置よりも筐体3に接近していることを相対位置検出部6及び姿勢評価部15にて検知した場合、状況判別部17は、ユーザが筐体3に引っ張られて後方へ反った状態であると判別する。そして、移動制御部18が停止指示を行い(S524)、移動部11を停止する(S624)(M32)。移動ステップ(S621)~(S623)のそれぞれが終了後は、再度データ取得ステップ(S10)に戻る。
【0049】
操作支援モード(M4)は、着座判別ステップ(S41)にて椅子2に搭乗者が着座している、と判別され、グリップ8の把持状態を検知できない場合に開始される。
【0050】
ここで、図11及び図12に示すように、着座姿勢検出部7による検出範囲LRF内で、ユーザの胸元(上半身)L1の稜線が検出された場合、椅子2への着座姿勢にあると判別して本モードを開始する(M41)。
【0051】
移動指示ステップ(S53)及び移動ステップ(S63)では、胸元の稜線L1が右側に傾いていることを相対位置検出部6及び姿勢評価部15にて検知した場合、状況判別部17は、ユーザが上半身を右方向に捻っている状態であると判別する。そして移動制御部18が所定の速度での右旋回指示を行い(S531)、移動部11により筐体3を右旋回させる(S631)(M42)。
【0052】
一方、胸元の稜線L1が左側に傾いていることを相対位置検出部6及び姿勢評価部15にて検知した場合、状況判別部17は、ユーザが上半身を左方向に捻っている状態であると判別する。そして移動制御部18が所定の速度での左旋回指示を行い(S532)、移動部11により筐体3を左旋回させる(S632)(M43)。
【0053】
胸元の稜線L1が前方へ移動していることを相対位置検出部6及び姿勢評価部15にて検知した場合、状況判別部17は、ユーザが上半身を椅子2内で前傾させている状態であると判別する。そして移動制御部18所定の速度での前進指示を行い(S533)、移動部11により筐体3を前進させる(S633)(M44)。一方、稜線L1が停止していることを相対位置検出部6及び姿勢評価部15にて検知した場合には、移動制御部18が停止指示を行い(S534)、移動部11が筐体3を停止させる(S634)。
【0054】
移動ステップ(S631)~(S634)のそれぞれが終了後は、再度データ取得ステップ(S10)に戻る。なお、本モード中にグリップ8の把持力を検知した場合には、本モードを解除する。
【0055】
この電動車椅子1並びに起立及び移動動作支援方法によれば、相対位置検出部6及び姿勢評価部15によって、ユーザの位置及び向きから、筐体3に対するユーザの姿勢を解析することができる。また、把持検出部10及び把持状態算出部16によって、ユーザによるグリップ8の把持力を検出して、この把持力からユーザの把持状態を解析することができる。そして、状況判別部17及び移動制御部18によって、ユーザの姿勢及び把持状態に基づき、ユーザの状況を判別し、状況に合わせて筐体3の水平移動方向及び水平移動速度を算出し、筐体3を移動させることができる。
【0056】
したがって、ユーザの筋力が弱くても着座状態から起立状態、及び起立状態から歩行状態へのスムーズな移行を支援でき、かつユーザの運動能力の低下を抑制しながら、起立支援及び歩行支援を行うことができる。
【0057】
また、カメラ5及びジェスチャ認識部13によって、ユーザの意図を認識することができ、電動車椅子1がユーザから離れた位置にあっても、ユーザのジェスチャを認識させることによって、電動車椅子1をユーザの近くまで移動させることができる。
【0058】
さらに、ユーザが椅子2に着座した状態で前進又は方向転換する場合、筐体3に対して上半身を捻ることによって着座姿勢検出部7がこれを検知し、捻り状態に合わせてその方向に筐体3を進めることができ、上半身の筋力低下を好適に抑えることができる。
【0059】
なお、本発明の技術範囲は上記実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。
例えば、上記実施形態では、起立及び移動動作支援装置として電動車椅子としているが、これに限らず、着座部のない歩行補助車のような他の形態でも構わない。
【図面の簡単な説明】
【0060】
【図1】本発明の一実施形態に係る電動車椅子を示す概要図である。
【図2】本発明の一実施形態に係る電動車椅子における把持検出部10の配設状態を示す説明図である。
【図3】本発明の一実施形態に係る起立及び移動動作支援方法を示すフロー図である。
【図4】本発明の一実施形態に係る起立及び移動動作支援方法のうち、ジェスチャ認識による電動車椅子を接近させる方法示すフロー図である。
【図5】本発明の一実施形態に係る起立及び移動動作支援方法における電動車椅子を接近させる際のユーザと電動車椅子との関係を(a)側面から(b)正面から示す説明図である。
【図6】本発明の一実施形態に係る起立及び移動動作支援方法のうち、起立支援方法を示すフロー図である。
【図7】本発明の一実施形態に係る起立及び移動動作支援方法における起立支援時のユーザと電動車椅子との関係を示す説明図である。
【図8】本発明の一実施形態に係る起立及び移動動作支援方法における起立時のユーザの水平方向の移動距離とその時間との関係を示すグラフである。
【図9】本発明の一実施形態に係る起立及び移動動作支援方法のうち、歩行支援方法を示すフロー図である。
【図10】本発明の一実施形態に係る起立及び移動動作支援方法における歩行支援時のユーザと電動車椅子との関係を示す説明図である。
【図11】本発明の一実施形態に係る起立及び移動動作支援方法のうち、電動車椅子に着座時の操作支援方法を示すフロー図である。
【図12】本発明の一実施形態に係る起立及び移動動作支援方法における電動車椅子に着座時の操作支援時のユーザと電動車椅子との関係を示す説明図である。
【符号の説明】
【0061】
1 電動車椅子(起立及び移動動作支援装置)
2 椅子(着座部)
3 筐体
5 カメラ(撮像部材)
6 相対位置検出部
7 着座姿勢検出部
8 グリップ(被把持部)
10 把持検出部
11 移動部
13 ジェスチャ認識部
15 姿勢評価部
16 把持状態算出部
17 状況判別部
18 移動制御部
図面
【図1】
0
【図2】
1
【図3】
2
【図4】
3
【図5】
4
【図6】
5
【図7】
6
【図8】
7
【図9】
8
【図10】
9
【図11】
10
【図12】
11