TOP > 国内特許検索 > 仮想手術シミュレーションシステム > 明細書

明細書 :仮想手術シミュレーションシステム

発行国 日本国特許庁(JP)
公報種別 特許公報(B2)
特許番号 特許第4129527号 (P4129527)
公開番号 特開2004-344491 (P2004-344491A)
登録日 平成20年5月30日(2008.5.30)
発行日 平成20年8月6日(2008.8.6)
公開日 平成16年12月9日(2004.12.9)
発明の名称または考案の名称 仮想手術シミュレーションシステム
国際特許分類 A61B  19/00        (2006.01)
G09B   9/00        (2006.01)
FI A61B 19/00 502
G09B 9/00 Z
請求項の数または発明の数 6
全頁数 11
出願番号 特願2003-146463 (P2003-146463)
出願日 平成15年5月23日(2003.5.23)
審査請求日 平成18年3月27日(2006.3.27)
特許権者または実用新案権者 【識別番号】304021277
【氏名又は名称】国立大学法人 名古屋工業大学
発明者または考案者 【氏名】藤本 英雄
【氏名】佐野 明人
個別代理人の代理人 【識別番号】100082500、【弁理士】、【氏名又は名称】足立 勉
審査官 【審査官】内藤 真徳
参考文献・文献 特開平05-123327(JP,A)
特開平11-219100(JP,A)
特開平10-207340(JP,A)
特開2002-272760(JP,A)
国際公開第03/037204(WO,A1)
調査した分野 A61B 19/00
特許請求の範囲 【請求項1】
所定の仮想空間内に立体映像を表示するための映像表示手段と、
前記仮想空間に患者の一部又は全部を模擬した仮想人体を表示するための人体モデルデータ、及び、前記仮想空間に手術具を模擬した仮想手術具を表示するための手術具モデルデータが、前記仮想空間内に表示すべき位置の位置情報を含めて記憶された記憶手段と、
前記仮想空間内における使用者の手又は指の位置を検出する位置検出手段と、前記位置検出手段にて検出される使用者の手又は指の位置に、前記仮想手術具が変位されるように、前記仮想手術具の位置情報を更新する位置情報更新手段と、
前記位置情報更新手段にて位置情報を更新された前記仮想手術具が、前記仮想人体に当接する位置関係になったと判断される場合に、該位置関係で、実際の手術具を実際の人体に当接させた場合の該人体における作用を演算して、該演算結果を前記人体モデルデータに反映するモデルデータ更新手段と、
使用者の視線位置及び視線方向を検出する視線検出手段と、
最新の前記人体モデルデータ及び前記手術具モデルデータにより、前記仮想人体及び前記仮想手術具を、前記視線検出手段にて検出された視線位置及び視線方向から観察される前記仮想空間内の立体映像として、前記映像表示手段により表示する映像制御手段と、
を備えることを特徴とする仮想手術シミュレーションシステム。
【請求項2】
前記位置検出手段にて位置を検出される使用者の手又は指に、反発力を与えるための体感手段を備え、
前記モデルデータ更新手段は、前記実際の人体における作用を演算する際に、前記実際の手術具に対する反発力を演算し、該演算結果を基に前記体感手段を介して前記使用者の手又は指に反発力を与える、
ことを特徴とする請求項1に記載の仮想手術シミュレーションシステム。
【請求項3】
前記モデルデータ更新手段は、
前記仮想人体に当接する箇所の前記仮想手術具の形状の種類毎に、前記実際の人体における作用を演算するための複数の演算パターンを備え、
前記実際の人体における作用を演算する際には、前記仮想人体に対する前記仮想手術具の当接箇所の形状に応じた前記複数の演算パターンを選択し、前記実際の人体における作用を該演算パターンで演算する、
ことを特徴とする請求項1又は請求項2に記載の仮想手術シミュレーションシステム。
【請求項4】
前記立体表示手段は、
前記仮想人体及び前記仮想手術具を、手術台に相当する台上面に、視差が設けられた2つの視差画像として表示する視差画像表示装置と、
使用者の眼前に装着され、前記視差画像を立体視させる立体視眼鏡と、
で構成されることを特徴とする請求項1~請求項3にいずれか記載の仮想手術シミュレーションシステム。
【請求項5】
前記記憶手段には、
実在する患者から取得したデータより生成した人体モデルデータが記憶されることを特徴とする請求項1~請求項4にいずれか記載の仮想手術シミュレーションシステム。
【請求項6】
現実空間に実在する患者に対して手術具を作用させるために、前記位置検出手段で検出した使用者の手又は指の位置を、所定の外部へ出力する外部出力手段を備えることを特徴とする請求項5に記載の仮想手術シミュレーションシステム。
発明の詳細な説明 【0001】
【発明の属する技術分野】
本発明は、手術の技能訓練や、手術の事前検討等のために、実際の人体を用いずに手術の作業を行えるようにするための仮想手術シミュレーションシステムに関する。
【0002】
【従来の技術】
従来、学生による手術の技能訓練などにて模擬的に手術を行う方法として、人体を模擬した模擬物(例えば、動物)に対して手術を行う方法が知られている。しかし、動物愛護の観点から、動物を模擬物として用いることが困難になってきており、人工の模擬物を用いる場合でも、模擬物を繰り返し用いることが難しく費用がかかるなどの問題がある。
【0003】
この問題を改善するために、患者を模擬した仮想人体、及び、手術具を模擬した仮想手術具の3次元画像を描画してモニタ画面に表示し、使用者によるモニタ画面の前部に設けられた模擬手術具の操作に対して、連動して仮想手術具を表示し、仮想手術具による作用を仮想人体に対して反映して表示する仮想手術シミュレーションシステムにより、模擬物を用いず仮想空間内の仮想人体に対して手術を行う方法が知られている(特許文献1参照)。
【0004】
【特許文献1】
特許第3198130号公報
【0005】
【発明が解決しようとする課題】
しかし、従来の仮想手術シミュレーションシステムでは、モニタ画面に表示される画像の中の仮想人体に対して手術が行われ、使用者の視線が実際の手術時と異なるため、実際の手術の際の感覚をつかみ難いという問題が考えれられる。
【0006】
また、実際の手術では、患部の状態を各方向から自分で覗き込んでその状態を確認する場合があるが、このような場合に対して、従来の仮想手術シミュレーションシステムでは、ジョイスティックによりモニタ画面の表示範囲を切り換えての確認になるなど、実際の手術作業とのギャップがある。
【0007】
本発明は、こうした問題点に鑑みなされたものであり、実際の手術と同様の視線で、模擬物を使わずに手術の作業を模擬して行うことができる仮想手術シミュレーションシステムを提供することを目的とする。
【0008】
【課題を解決するための手段】
かかる目的を達成するためになされた請求項1記載の仮想手術シミュレーションシステムにおいては、所定の仮想空間内に立体映像を表示するための映像表示手段と、仮想空間に患者の一部又は全部を模擬した仮想人体を表示するための人体モデルデータ、及び、仮想空間に手術具を模擬した仮想手術具を表示するための手術具モデルデータが、仮想空間内に表示すべき位置の位置情報を含めて記憶された記憶手段とを備える。
【0009】
そして、位置検出手段が、仮想空間内における使用者の手又は指の位置を検出し、位置情報更新手段が、位置検出手段にて検出される使用者の手又は指の位置に、仮想手術具が変位されるように、仮想手術具の位置情報を更新し、この位置情報更新手段にて位置情報を更新された仮想手術具が仮想人体に当接する位置関係になったと判断される場合には、モデルデータ更新手段が、この位置関係で、実際の手術具を実際の人体に当接させた場合の人体における作用を演算して、この演算結果を人体モデルデータに反映する。
【0010】
そして更に、視線検出手段が、使用者の視線位置及び視線方向を検出し、映像制御手段が、最新の人体モデルデータ及び手術具モデルデータにより、仮想人体及び仮想手術具を、視線検出手段にて検出された視線位置及び視線方向から観察される仮想空間内の立体映像として、映像表示手段により表示する。
【0011】
この結果、本発明の仮想手術シミュレーションシステムによれば、使用者の視線位置及び視線方向に応じて仮想人体及び仮想手術具が立体映像で表示され、使用者は、手又は指の位置を移動することにより仮想手術具を動かし、仮想手術具を仮想人体へ当接させて、実際に手術しているかのように仮想人体を変化させることができる。
【0012】
このため、手術の技能訓練や、術前の手術方法の検討などのために、使用者は、模擬物を使わずに、実際の手術と同様の視線で、実在する患者に対するのと同様に手又は指を動かして模擬した手術を行える。また、人体モデルデータを元の状態に戻すだけで、容易に手術の模擬を繰り返して行うことができる。
【0013】
尚、位置検出手段で位置を検出する箇所は手又は指であり、検出する箇所が手の場合、この位置を手術具を握った手の位置、つまり仮想手術具の位置として位置情報更新手段で手術具の位置を更新する。そして、位置検出手段にて検出する箇所が指の位置の場合は、指を手術具とするものでも良いし、検出されたいくつかの指の位置により、仮想手術具の例えば鉗子などを、その指で操作されたように位置情報更新手段で仮想手術具の位置を更新するものでも良い。
【0014】
また、仮想手術具は、2つ以上あっても良い。この場合、各々同じ種類の手術具を模擬したものでも良いし、別々の種類の手術具を模擬したものであっても良い。そして、2つ以上の仮想手術具は、複数人での利用が可能である。
また、位置検出手段で検出する位置は、仮想手術具の数に応じて複数あっても良いし、1つの仮想手術具に対して複数箇所検出するものであっても良い。
【0015】
次に、本発明の仮想手術シミュレーションシステムは、請求項2に記載のように、位置検出手段にて位置を検出される使用者の手又は指に、反発力を与えるための体感手段を備え、モデルデータ更新手段は、実際の人体における作用を演算する際に、実際の手術具に対する反発力を演算し、この演算結果を基に体感手段を介して使用者の手又は指に反発力を与えるように構成しても良い。
【0016】
つまり、このように構成すると、立体映像で模擬される視覚に加えて、体感手段により、仮想手術具により仮想人体に及ぼす作用に応じて使用者の手又は指に生ずる反発力で、触覚が模擬されて、より現実感がある仮想手術シミュレーションシステムとすることができる。
【0017】
尚、より現実感を出すためには、仮想手術具による作用に応じた音響を発生するようにして、視覚、触覚に加え、聴覚を模擬するとより良い。
ところで、手術で用いられる手術具は、メス類、鉗子類、縫合針類、及び、人の指など種々ある。これらの手術具による人体に対する作用は、手術具の人体と当接する部分の形状によってその作用は異なってくる。
【0018】
このような、手術具による人体への種々の作用を模擬するには、請求項1又は請求項2に記載の仮想手術シミュレーションシステムを、請求項3に記載のように、モデルデータ更新手段が、仮想人体に当接する箇所の仮想手術具の形状の種類毎に、実際の人体における作用を演算するための複数の演算パターンを備え、実際の人体における作用を演算する際には、仮想人体に対する仮想手術具の当接箇所の形状に応じた複数の演算パターンを選択し、実際の人体における作用を該演算パターンで演算するように構成すると良い。
【0019】
つまり、このように構成すると、仮想手術具の種類や、仮想手術具の使い方などに応じて、仮想人体に対する作用を変えることができ、仮想手術具による仮想人体への作用を、より実際に近くなるように模擬することができる。
尚、手術における手術具による人体に対する作用には、鉗子や指などにより人体の一部を押したり、引っ張ったりして弾性変形する作用や、メスなどによる開腹、切除などの切断する作用や、縫合や吻合する際の縫合針などによる刺通する作用などがある。そして、モデルデータ更新手段は、これらの作用を模擬するための演算パターンを備えると良い。
【0020】
また、請求項1~請求項3に記載の仮想手術シミュレーションシステムにおいて、立体表示手段の具体的な構成は種々考えられるが、この立体表示手段としては、例えば請求項4に記載のように、視差画像表示装置で、仮想人体及び仮想手術具を手術台に相当する台上面に、視差が設けられた2つの視差画像として表示し、使用者の眼前に装着される立体視眼鏡で視差画像を立体視させるように構成すると良い。
【0021】
つまり、立体表示手段をこのように構成にすると、使用者が装着するのは立体視眼鏡だけとすることができ、立体映像を表示するための他の構成であるヘッドマウントディスプレイのように、映像を表示するための大がかりな装置を頭部に装着しなくても良く、より自然な状態で手術作業を体感することができる。
【0022】
また、請求項1~請求項4に記載の仮想手術シミュレーションシステムの記憶手段には、請求項5に記載のように、実在する患者から取得したデータより生成した人体モデルデータを記憶するようにしても良い。
つまり、このようにすると、仮想手術シミュレーションシステムを用いた手術作業により、手術の方法に対する問題の有無を事前に確認し、執刀する医者の手術の作業に対する熟練度を上げて、人体モデルデータを生成した患者を手術する際の成功率を上げることができる。
【0023】
また、請求項5に記載の仮想手術シミュレーションシステムを、現実空間に実在する患者に対して手術具を作用させるために、請求項6のように、外部出力手段で、位置検出手段で検出した使用者の手又は指の位置を、所定の外部へ出力するように構成すると良い。
【0024】
つまり、このように構成すると、外部出力手段の出力先を、出力された位置により手術具を制御して動かすロボットなどの機器とすれば、人体モデルデータを実在する患者から取得したものとし、仮想手術シミュレーションシステムでの医師による手術作業と、ロボットによる手術作業をシンクロさせて、遠隔地にいる患者に対して手術を行うことができる。つまり、仮想手術シミュレーションシステムを、いわゆるテレサージェリーシステムの入力装置とすることができる。
【0025】
また、仮想手術シミュレーションシステムを、ミクロな世界で手術するマイクロサージェリーシステムの入力装置として、外部出力手段の出力先を、ミクロな医療ロボットとし、表示する仮想人体の患部を拡大表示することにより、使用者がミクロな世界に入り込んで手術しているようにすることもできる。
【0026】
【発明の実施の形態】
以下に本発明の実施例を図面と共に説明する。
本実施例の仮想手術シミュレーションシステム1の全体構成を図1に表す。
仮想手術シミュレーションシステム1は、図1に示すように、立体映像表示装置10と、メインパーソナルコンピュータ(以降、メインPCと呼ぶ)20と、映像処理用ワークステーション(以降、映像処理用WSと呼ぶ)30と、液晶シャッタ式メガネ40と、位置センサ45と、力覚デバイス50とで構成され、技能訓練などを目的として、患者を模擬した仮想人体を立体映像で所定の空間に表示し、使用者が、この仮想人体に対して仮想的に手術を行うためのシステムである。
【0027】
尚、立体映像表示装置10においては、半球ドーム形状で半透明の球面ディスプレイ12が球面を上にして、箱形のコンソール11上部の開放された部分に装着され、映像を投影表示する2台の液晶プロジェクタ13,14が、コンソール11内の球面ディスプレイ12の下方に、それぞれ球面ディスプレイ12の内面に映像を重ねて投影するように投光部を向けて装着され、液晶プロジェクタ13,14の投光部の前部にそれぞれメカニカルシャッタ15,16が配置されている。
【0028】
また、メカニカルシャッタ15,16は、メインPC20から同期信号を受けて、これに合わせて所定の時間毎(例えば、1/60秒毎)に交互にシャッタを開閉する。このように、液晶プロジェクタ13,14が投光する映像は、所定時間毎に交互に球面ディスプレイ12の内面に投影され、球面ディスプレイ12の外面に表示される。
【0029】
また、液晶シャッタ式メガネ40は、左右のレンズ部がそれぞれ電気信号により開閉する液晶シャッタとなっており、メカニカルシャッタ15,16と同じタイミングの同期信号が、メインPC20から赤外線などにより入力されて、これに合わせて左右交互に液晶シャッタを開く。よって、液晶シャッタ式メガネ40と、メカニカルシャッタ15,16との開閉タイミングは同期する。
【0030】
このように、使用者は、液晶シャッタ式メガネ40を通して、球面ディスプレイ12に表示される映像を見ると、使用者の両目の内の一方(例えば、右目)は、液晶プロジェクタ13からの映像しか見えず、もう一方の目(例えば、左目)は、液晶プロジェクタ14からの映像しか見えないようになっている。
【0031】
このため、立体映像を表示するために視差を持った2つの画像のうち、右目用の画像を液晶プロジェクタ13、左目用の画像を液晶プロジェクタ14に入力し、立体映像表示装置10の球面ディスプレイ12に表示すると、使用者は、右目用の画像を右目で見て、左目用の画像を左目で見るため、結果的に球面ディスプレイ12に表示される映像が立体映像として見えることになる(いわゆる立体視)。
【0032】
尚、立体視させる場合には、視線に対して直交方向に画像を表示することが理想的であり、その点、本立体映像表示装置10は、映像を投影する球面ディスプレイ12が半球形状であり、コンソール11上面のどの方向から見られても直交方向の画像を表示することができ、立体視させることができる。
【0033】
また、位置センサ45は、直交コイルを内蔵し、液晶シャッタ式メガネ40に装着されている。そして、立体映像表示装置10の脇に、直交コイルで構成され、交流電流を与えると磁気を発生するトランスミッタ46が置かれていて、位置センサ45は、トランスミッタ46による磁界中に置かれると誘起電流を生じ、これを検出回路47で時分割に測定して、X、Y、Zの3次元座標値(つまり、視線位置)、及び、ピッチ、ヨー、ロールのオイラー角(つまり、視線方向)の信号をメインPC20へ出力する。
【0034】
また、力覚デバイス50は、使用者に握られるグリップ51を、X,Y,Z軸方向に移動することができるように多関節の支持部材52で支持した構成で、コンソール11の上面に配置される。そして、グリップ51先端の3次元座標位置を、各関節に設けられたエンコーダなどにより検出し、メインPC20に検出した位置信号を出力する。また、力覚デバイス50の各関節には、DCモータが設けられていて、メインPC20からのDCモータに対する駆動電流を受けて、グリップ51に対して3自由度方向の反発力を発生する。
【0035】
また、メインPC20は、CPU、ROM、RAM、外部記憶装置、I/Oなどからなる周知のパーソナルコンピュータで構成され、力覚デバイス50及び位置センサ45からの信号を入力して、メカニカルシャッタ15,16及び液晶シャッタ40への同期信号と、力覚デバイス50への駆動電流と、仮想人体及び仮想手術具を立体表示するように視差を設けて生成した2つの視差画像の映像処理用WS30へのアナログRGB信号とを出力する。尚、立体映像表示装置10にて表示する画像が、各入力に応じてリアルタイムに変化して表示されるように、メインPC20には、処理能力が十分高速なものが用いられている。
【0036】
また、映像処理用WS30は、周知のワークステーションで構成され、入力される2つの視差画像が、方形のディスプレイへ表示するための画像であるため、球面形状の球面ディスプレイ12内面に投影したときに歪んだ映像にならないように、ビデオ信号に対して映像の補正処理を行い、立体映像表示装置10の液晶プロジェクタ13,14に出力する。
【0037】
尚、映像処理用WS30には、ビデオ信号変換器31を備え、メインPC20から送られてくるアナログRGB信号による視差画像は、ビデオ信号変換器31を通され、ビデオ信号として入力される。
ところで、立体画像表示装置10により映像が立体的に表示される範囲を仮想空間とし、仮想空間内の所定の場所に表示される仮想人体の状態を表す人体モデルデータと、同じく仮想空間内の所定の場所に表示される仮想手術具の状態を表す手術具モデルデータとが、メインPC20の外部記憶装置に記憶された基本データを基に、それぞれの位置情報を含めてRAM上に記憶されている。
【0038】
尚、人体モデルデータの基本データは、人体の一部を撮影したCT(コンピュータ断層撮影装置)や、MRI(核磁気共鳴映像法)などの医療用画像から、輪郭線抽出を行い、デローニー三角形や、ボロノイ図を利用して輪郭線間の面生成を行い生成された、人体内部の情報も含む3次元形状データに、各組織毎の弾性係数など、人体の特性に関する各種情報を含んでいる。
【0039】
また、手術具モデルデータは、メスや、縫合針などの手術具の形状をデータ化した複数の3次元形状データで構成され、各仮想手術具の各部分は、その形状が種別分類され、メスなど刃物状の形状部分が種別「B」、縫合針など、針状の形状部分が種別「C」、それ以外が種別「A」として分類された形状特性のデータを有している。
【0040】
続いて、メインPC20での処理手順と共に、仮想手術シミュレーションシステム1の動作を図2に示すフローチャートにより説明する。
まず、S100(Sはステップを表す)にて、力覚デバイス50からグリップ51の位置信号を取得し、この位置信号の位置を仮想手術具の表示位置として(つまり、グリップ51に重なって仮想手術具が表示されるように)手術具モデルデータの位置情報を変更する。
【0041】
次に、S110にて、手術具モデルデータ及び人体モデルデータから、立体映像表示装置10にて仮想手術具を表示する領域が、仮想人体を表示する領域に接するか判別する。これらの領域が接する場合はS120へ移行し、接しない場合はS190へ移行する。
【0042】
次に、S120にて、表示される仮想手術具の仮想人体に接する部分の形状の種別を判別する。そして、形状の種別が「A」の場合S130へ移行し、形状の種別が刃物状の「B」の場合S150へ移行し、形状の種別が針状の「C」の場合S170へ移行する。
【0043】
S130では、仮想手術具が接する仮想人体を弾性体として、仮想手術具により変形される仮想人体の状態を有限要素方とニュートンの運動方程式とを組み合わせたモデルで計算を行い、この計算による変形量を反映した仮想人体となるように人体モデルデータを変更する。そして、S140にて、仮想手術具に対する反発力としてS130で計算の変形量に対する弾性力を求めて、S190へ移行する。
【0044】
S150では、仮想手術具の刃物状形状が接する仮想人体部分を、位相変形手法として頂点の再配置法により、ある程度滑らかな切断面にするように人体モデルデータを変更し、S160にて、仮想手術具に対する反発力としてS150で計算した切断の際の反発力を求めて、S190へ移行する。
【0045】
S170では、仮想手術具の針状形状が重なる仮想人体部分を、頂点の再配置と増殖を行って、刺通穴を生成するように人体モデルデータを変更し、S180にて、仮想手術具に対する締め付け力に起因するS180での刺通穴の刺通抵抗を求めて、S190へ移行する。
【0046】
次に、S190にて、位置センサ45からの視線位置及び視線方向の信号を取得する。
次に、S200にて、人体モデルデータ及び手術具モデルデータを基に、それぞれの位置情報の位置に表示する仮想人体及び仮想手術具を、S190で取得した視線位置及び視線方向から見た場合の3次元画像に視差を持たせた、2枚の視差画像を生成する。
【0047】
次に、S210にて、S200で生成した画像を、映像処理用WS30へ出力して立体映像表示装置10に表示し、S140又はS160又はS180で計算された反発力に基づく駆動電流を力覚デバイス50へ出力し、S100へ戻る。尚、コンソール11の上方の所定の位置に、他の仮想手術具を並べて表示し、使用者によりグリップ51をこの仮想手術具の位置に重ねられると、その仮想手術具をグリップ51に重ねて表示している仮想手術具と入れ替えて表示する。
【0048】
これにより、使用者が、立体映像表示装置10の前に立ち、液晶シャッタ式メガネ40を掛け、グリップ51を動かすと、仮想手術シミュレーションシステム1は、仮想人体及び仮想手術具を使用者の眼前に立体表示し、この仮想手術具をグリップ51に重ね、仮想手術具が仮想人体に対して接すると、仮想手術具の仮想人体と接する部分の形状に応じて弾性変形、又は、切断、又は、刺通したように仮想人体を変形して表示し、グリップ51に反発力を発生する。例えば、仮想手術具が仮想メスの場合、グリップ51が移動され、仮想メスの刃物形状部分が仮想人体に接すると、仮想メスが接した部分で切断した形状に仮想人体を変形して表示し、力覚デバイス50によりメスで切断しているような反発力を発生させて、使用者に対して仮想メスが仮想人体を切り込んでいるように感じさせる。
【0049】
以上のように、仮想手術シミュレーションシステム1によれば、使用者は、実際の手術を行う際と同様に、立体映像で表示される仮想人体及び仮想手術具を使用者の視線に応じて視認でき、仮想手術具を操作するようにグリップ51を移動して、仮想人体に対して仮想手術具を作用させることができる。また、仮想手術具により仮想人体に対して作用を及ぼしたときの反発力がグリップ51に発生するため、使用者は、触覚的にも仮想人体が実在しているように感じることができる。
【0050】
このように、仮想手術シミュレーション1は、使用者の技能訓練などに対して、実際の手術と同様の視線で、模擬物を使わずに手術の模擬作業を行わせることができる。
また、手術具による仮想人体への作用として、弾性変形、切断、刺通の演算パターンのいづれかが、手術具の形状に応じて選択されて演算されるため、種々の仮想手術具による種々の操作に応じた仮想人体への作用を模擬できる。
【0051】
また、人体モデルデータを、実際に手術を行う患者からのデータとして、当該仮想手術シミュレーションシステム1で手術の作業を手術前に行うようにすれば、手術を行う際の問題の有無を確認し、手術の作業に対する熟練度を上げ、手術の成功率を上げることができる。
【0052】
[本発明との対応関係]
本実施例の映像処理用WS30及び立体映像表示装置10が本発明の視差画像表示装置に相当し、液晶シャッタ式メガネ40が立体視眼鏡に相当し、メインPC20のRAMが記憶手段に相当し、力覚デバイス50が位置検出手段及び体感手段に相当し、位置センサ45が視線検出手段に相当し、メインPC20におけるS100での処理が位置情報更新手段に相当し、メインPC20におけるS110~S180での処理がモデルデータ更新手段に相当し、メインPC20におけるS190~S210での処理が映像制御手段に相当する。
【0053】
[変形例]
以上、本発明の実施形態について説明したが、本発明は上記の具体的な実施形態に限定されず、このほかにも様々な形態で実施することができる。
例えば、本実施例では、コンソール11上に仮想人体の立体映像を表示する構成であるが、そのほかの方法で立体映像が表示されるものであっても良く、例えば、ヘッドマウントディスプレイにより、眼前に仮想空間を3次元画像で立体表示するものであっても良い。但し、本実施例のコンソール11上に映像表示する方法では、ヘッドマウントディスプレイのように、映像を表示する大がかりな装置を頭部に装着しなくても良く、より自然な状態での手術作業を体感することができる。
【0054】
また、本実施例では、力覚デバイス50が1つだけ装着され、グリップ51の状態で1つの仮想手術具が操作される構成としたが、力覚デバイス50を複数設けたものであっても良く、このような構成にすると、複数の仮想手術具を両手もしくは複数人で行う手術を模擬できるようにしたり、複数の力覚デバイス50を指先で操作できるようにして、鉗子などの仮想手術具を指の動きで操作したり、指による手術作業を行えるようにするなど、手術のいろいろな状態を模擬するようにできる。
【0055】
また、力覚デバイス50からの位置信号を、外部出力器90により外部へ出力するように構成しても良く、このようにすれば、人体モデルデータを実際の患者のものとし、外部出力器90による位置信号の出力先を、位置信号に応じて実際の手術具を動かすロボットとして、本仮想手術シミュレーションシステム1で手術の作業を行うことにより、ロボットを操作し遠隔地にいる患者に対して手術を行うことができる。このような、テレサージェリーシステムの入力装置とすることができる。
【0056】
また、ミクロな世界にて手術するマイクロサージェリーシステムの入力装置として、力覚デバイス50からの位置信号を、外部出力器90によりミクロな医療ロボットに入力し、表示する仮想人体で、患部を拡大表示することにより、実際にミクロな世界に入り込んで手術をするようにもできる。
【図面の簡単な説明】
【図1】本実施例の仮想手術シミュレーションシステム1の全体構成を表す図である。
【図2】本実施例のメインPCの処理手順のフローチャート図である。
【符号の説明】
1…仮想手術シミュレーションシステム、10…立体映像表示装置、11…コンソール、12…球面ディスプレイ、13,14…液晶プロジェクタ、15,16…メカニカルシャッタ、20…メインパーソナルコンピュータ、30…映像処理用ワークステーション、40…液晶シャッタ式メガネ、45…位置センサ、46…トランスミッタ、50…力覚デバイス、90…外部出力器。
図面
【図1】
0
【図2】
1