Top > Search of Japanese Patents > CONVERSATION EXPRESSION GENERATING APPARATUS AND CONVERSATION EXPRESSION GENERATING PROGRAM

CONVERSATION EXPRESSION GENERATING APPARATUS AND CONVERSATION EXPRESSION GENERATING PROGRAM commons

Patent code P140010713
File No. 02-111
Posted date Jul 3, 2014
Application number P2002-265209
Publication number P2004-102764A
Patent number P3787623
Date of filing Sep 11, 2002
Date of publication of application Apr 2, 2004
Date of registration Apr 7, 2006
Inventor
  • (In Japanese)久保田 秀和
  • (In Japanese)西田 豊明
  • (In Japanese)山下 耕二
  • (In Japanese)福原 知宏
Applicant
  • (In Japanese)国立研究開発法人情報通信研究機構
Title CONVERSATION EXPRESSION GENERATING APPARATUS AND CONVERSATION EXPRESSION GENERATING PROGRAM commons
Abstract PROBLEM TO BE SOLVED: To improve the degree of understanding of readers and listeners by automatically generating conversation expressions based on described monologue sentences.
SOLUTION: This conversation expression generating apparatus A comprises a monologue text acquisition means acquiring a monologue text, a pretreatment means generating one or more simple texts by dividing the acquired monologue text, a sentence end treatment means analyzing the sentence end expression of the generated simple text and allowing the sentence end expression to correspond to either of a plurality of sentence end expression patterns, a comment selection means selecting one comment text corresponding to the simple sentence text allowed to correspond to the any one sentence end expression pattern from a plurality of comment texts set as expressions to respond to the sentence end expression patterns while being related thereto, and a means generating and outputting a conversation text formed of the simple sentence text and the comment text by inserting the selected comment text after the simple sentence text.
Outline of related art and contending technology (In Japanese)

現在のところ、インターネット等の通信手段を介した情報提供の手段は、一部に画像を伴ったものはあるが、Webページ中の文章、電子メールやチャットや電子掲示板等の文字コミュニケーションが中心的である。特に、Webページ中の文章の多くは、単独の書き手が一方的に叙述するモノローグ的な文章であるといえる。また、電子メール等の文字コミュニケーションでは、一人の書き手(話者)の記述(発言)中に、他者が質問を差し挟むような対話(会話)の調整が、現実に対面して話し合う対面対話の場合よりも困難であるため、個々の発言は一般的に長く、発言毎に断片化されたモノローグ的な性質を有しているものと考えられる。このように、インターネット上には、モノローグ的な文章として蓄えられた情報が大量に存在しているのが現状である。しかしながら、モノローグ的な文章は、万人向けの情報提示手段ではなく、専門的なモノローグ的文章よりも、重要な部分を質問応答形式で表した会話形式の文章の方が一般的に親しみやすく、理解の度合いも高い傾向にある。ここで、会話形式の文章とは、インタビュー記事やテレビ番組の台本に代表されるように、複数の話し手が会話を積み重ねる形式の文章である、会話形式の文章は、モノローグ的な文章と比較して、客観的で厳密に構造化された叙述を行うことは困難であるが、重要な部分に焦点を当てた簡潔な情報提示を行うことができるという利点を有しており、また、日常的なコミュニケーションに利用する最も一般的な情報交換手段であるため、モノローグ的な文章よりも親しみやすく、対話相手や聞き手の理解も進みやすいという特徴がある。このことを、テレビ放送のニュース番組を例にして説明すると、日常的な話題についてはアナウンサーが一人でニュース原稿を読み上げるよりも、二人以上のパーソナリティが会話形式で紹介する方が親しみやすく感じられる。

会話形式の表現を利用する方法としては、例えば、ユーザのWebブラウジングに対応して同一のキャラクタエージェント達に、当該ページに関連する会話や寸劇を行わせることによって、ユーザによるWebページの理解に一貫性を持たせようとするAgneta&Fridaという試みがなされている(非特許文献1)。また、サッカー中継の試合情報を元に、チームに対する各々の態度や性格に従って会話を生成するエージェント(Gerd&Matze)も考えられている(非特許文献2)。さらに、展示会参加者の個人情報に対し簡単な規則を適用して生成されたエージェント同士の会話を行わせるエージェントサロンも考えられている(非特許文献3)。

【非特許文献1】

クリスティナ・フック(H"o"ok,K.)、他3名著「インタフェースにおける隠れルター派的な見方の取り扱い:アグネタ&フリーダシステムの評価(Dealing with the Lurking Lutheran view on Interfaces : Evaluation of the Agneta and Frida system)」,(スペイン・サイチェス(Sitges,Spain)),生命的合成キャラクターの行動プラン具に関するワークショップ(the workshop Behaviour Planning for Life-Like Synthetic Characters)」,1999年,p125-136

【非特許文献2】

エリザベス・アンドレ(Andr'e,E.)、他1名著,「パフォーマンスによる表現:知識ベースプレゼンテーションシステムにおける複数の生命的キャラクターの利用(Presenting Through Performin: On the Use of Multiple Lifelike Characters in Knowledge-Based Presentation Systems)」,(米国),第2回知的ユーザインタフェース国際会議論文集(the Second International Conference on Intelligent User Interfaces( IUI2000)),2000年,p.1-8

【非特許文献3】

角,間瀬著,「エージェントサロン:パーソナルエージェント同士のおしゃべりを利用した出会いと対話の促進」電子情報通信学会論文誌,第84巻D-I,第8号,2001年,p1231-1243

Field of industrial application (In Japanese)

本発明は、モノローグ的な表現を元にして会話形式の表現を好適に生成し得る会話表現生成装置及びそのためのプログラムに関するものである。

Scope of claims (In Japanese)
【請求項1】
 
モノローグ的文章からなるモノローグテキストに基づいて、会話表現を生成するものであって、モノローグテキストを格納したモノローグテキスト格納部から取得するモノローグテキスト取得手段と、取得したモノローグテキストを単文形式に分割し一以上の単文テキストを生成する前処理手段と、生成された単文テキストの文末表現を解析し当該文末表現を予め設定された複数の文末表現パターンの何れか一つに対応付ける文末処理手段と、各文末表現パターンに対応付けてそれらに応答する表現として設定された複数のコメントテキストを格納するコメント格納部から前記何れかの一の文末表現パターンに対応付けられた単文テキストに対応する一のコメントテキストを選択するコメント選択手段と、前記単文テキストの後に選択されたコメントテキストを挿入し単文テキストとコメントテキストからなる会話テキストを生成する会話表現生成手段と、生成した会話テキストを出力する会話テキスト出力手段とを具備してなることを特徴とする会話表現生成装置。

【請求項2】
 
ユーザにより入力されたキーワードを取得するキーワード取得手段を更に具備し、前記モノローグテキスト取得手段が、前記モノローグテキスト格納部から前記キーワードに対応する一以上の前記モノローグテキストを取得するものであって、前記前処理手段が、取得されたモノローグテキストのそれぞれについて単文テキストを生成するものである請求項1記載の会話表現生成装置。

【請求項3】
 
前記モノローグテキスト格納部が、ユーザの入力により電子掲示板に投稿された意見文テキストを前記モノローグテキストとして格納するものであり、前記モノローグテキスト取得手段が、この意見文であるモノローグテキストを取得するものである請求項1又は2記載の会話表現生成装置。

【請求項4】
 
二以上の予め設定された話者エージェントのそれぞれに対して、出力された前記会話テキストのうち単文テキストの読み手として一の話者エージェントを対応付けるとともに、前記コメントテキストの読み手として他の話者エージェントを対応付ける処理を行う話者決定手段を更に具備している請求項1、2又は3記載の会話表現生成装置。

【請求項5】
 
前記話者決定手段で決定した各話者エージェントごとに異なる音声で対応する単文テキスト又はコメントテキストを音声出力する音声出力手段を更に具備している請求項4記載の会話表現生成装置。

【請求項6】
 
前記音声出力手段で出力される単文テキスト又はコメントテキストの音声に対応して、各話者エージェントに当該話者エージェントの画像のうち少なくとも口を動かせるアニメーション動作を付加し出力するアニメーション処理手段を更に具備している請求項5記載の会話表現生成装置。

【請求項7】
 
前記各話者エージェントと共に、対応する単文テキスト又はコメントテキストを画面表示可能な文字データとして出力する文字データ出力手段を更に具備している請求項4、5又は6記載の会話表現生成装置。

【請求項8】
 
前記話者エージェントの一つとして、会話表現の進行役となるメインキャスタエージェントを設定してあり、前記話者決定手段が、メインキャスタエージェントをコメントテキストの読み手として決定するものである請求項4、5、6又は7記載の会話表現生成装置。

【請求項9】
 
前記モノローグテキストが、その内容の本質的部分である本文部と概要を示す表題部とから構成されるものであり、前記話者決定手段が、メインキャスタエージェントを表題部の読み手として決定するものである請求項8記載の会話表現生成装置。

【請求項10】
 
前記コメント格納部に、会話表現の開始を示すコメントテキストが格納されており、前記コメント選択手段が、当該単文テキストの前に他の単文テキストがない場合に前記開始を示すコメントテキストを選択し、前記話者選択手段において、当該コメントテキストに表題部を合成したものをメインキャスタエージェントに対応付けるものである請求項9記載の会話表現生成装置。

【請求項11】
 
前記モノローグテキストが、その内容の本質的部分である本文部と概要を示す表題部とから構成されるものであり、前記メインキャスタエージェントとは異なる話者エージェントとして一以上のアナウンサーエージェントが設定されてあり、前記話者決定手段が、アナウンサーエージェントを本文部の読み手として決定するものである請求項8、9又は10記載の会話表現生成装置。

【請求項12】
 
前記モノローグテキストが画像データを伴っている場合、前記モノローグテキスト格納部から当該画像データを取得し出力する画像データ処理手段を更に具備している請求項1、2、3、4、5、6、7、8、9、10又は11記載の会話表現生成装置。

【請求項13】
 
前記コメント選択手段が、一のモノローグテキストにおける最終の単文テキストを認識し、最終の単文テキストにおける文末表現パターンに対応付けて次のモノローグテキストへ接続する表現として設定されコメント格納部に格納されたコメントテキストから当該最終の単文テキストの文末表現に対応するコメントテキストを選択するものである請求項1、2、3、4、5、6、7、8、9、10、11又は12記載の会話表現生成装置。

【請求項14】
 
前記文末表現パターンに、現象を述べ立てることを示す現象叙述形式と伝聞であることを示す伝聞形式とが少なくとも含まれるとともに、前記コメントテキストに、現象叙述形式に対応する質問文形式に該当するコメントテキストと伝聞形式に対応する予想文形式に該当するコメントテキストとが少なくとも含まれ、前記文末処理手段が、前記単文テキストの文末表現を現象叙述形式又は伝聞形式の何れかに対応付けるとともに、それに対応して前記コメント選択手段において、質問文形式又は予想文形式の何れか一方のコメントテキストを選択するものである請求項1、2、3、4、5、6、7、8、9、10、11、12又は13記載の会話表現生成装置。

【請求項15】
 
質問文形式及び予想文形式の前記コメントテキストを、それぞれ複数ずつ設定してあり、前記コメント選択手段が、それら複数のコメントテキストから何れか一のコメントテキストを選択するものである請求項14記載の会話表現生成装置。

【請求項16】
 
複数のユーザが入力することにより利用可能な電子掲示板に入力されたモノローグテキストを格納する前記モノローグテキスト格納部と、前記コメント格納部とを有し、且つ、入力されたモノローグテキストに基づいて生成される会話表現テキストを放送可能なインタラクティブ放送システムにおいて適用され、入力されたモノローグテキストに基づいて会話テキストを生成し、当該会話テキストを放送可能に出力するために用いられるものである請求項1、2、3、4、5、6、7、8、9、10、11、12、13、14又は15記載の会話表現生成装置。

【請求項17】
 
コンピュータを動作させることによって、当該コンピュータを、モノローグ的文章からなるモノローグテキストに基づいて会話表現を生成する会話表現生成装置として機能させるためのプログラムであって、前記コンピュータを、モノローグテキストを格納したモノローグテキスト格納部から取得するモノローグテキスト取得手段と、取得したモノローグテキストを単文形式に分割し一以上の単文テキストを生成する前処理手段と、生成された単文テキストの文末表現を解析し当該文末表現を予め設定された複数の文末表現パターンの何れか一つに対応付ける文末処理手段と、各文末表現パターンに対応付けてそれらに応答する表現として設定された複数のコメントテキストを格納するコメント格納部から前記何れかの一の文末表現パターンに対応付けられた単文テキストに対応する一のコメントテキストを選択するコメント選択手段と、前記単文テキストの後に選択されたコメントテキストを挿入し単文テキストとコメントテキストからなる会話テキストを生成する会話表現生成手段と、生成した会話テキストを出力する会話テキスト出力手段として機能させることを特徴とする会話表現生成プログラム。

【請求項18】
 
前記コンピュータを、ユーザにより入力されたキーワードを取得するキーワード取得手段として更に機能させ、前記モノローグテキスト取得手段において、前記モノローグテキスト格納部から前記キーワードに対応する一以上のモノローグテキストを取得し、前記前処理手段において、取得されたモノローグテキストのそれぞれについて単文テキストを生成するようにしている請求項17記載の会話表現生成プログラム。

【請求項19】
 
前記モノローグテキスト格納部が、ユーザの入力により電子掲示板に投稿された意見文テキストを前記モノローグテキストとして格納するものであり、前記モノローグテキスト取得手段において、この意見文であるモノローグテキストを取得するようにしている請求項17又は18記載の会話表現生成プログラム。

【請求項20】
 
前記コンピュータを、二以上の予め設定された話者エージェントのそれぞれに対して、出力された前記会話テキストのうち単文テキストの読み手として一の話者エージェントを対応付けるとともに、前記コメントテキストの読み手として他の話者エージェントを対応付ける処理を行う話者決定手段として更に機能させる請求項17、18又は19記載の会話表現生成プログラム。

【請求項21】
 
前記コンピュータを、前記話者決定手段で決定した各話者エージェントごとに異なる音声で対応する単文テキスト又はコメントテキストを音声出力する音声出力手段として更に機能させる請求項20記載の会話表現生成プログラム。

【請求項22】
 
前記コンピュータを、前記音声出力手段で出力される単文テキスト又はコメントテキストの音声に対応して、前記各話者エージェントに当該話者エージェントの画像のうち少なくとも口を動かせるアニメーション動作を付加し出力するアニメーション処理手段として更に機能させる請求項21記載の会話表現生成プログラム。

【請求項23】
 
前記コンピュータを、前記各話者エージェントと共に、対応する前記単文テキスト又は前記コメントテキストを画面表示可能な文字データとして出力する文字データ出力手段として更に機能させる請求項19、21又は22記載の会話表現生成プログラム。

【請求項24】
 
前記話者エージェントの一つとして、会話表現の進行役となるメインキャスタエージェントが設定されており、前記話者決定手段において、メインキャスタエージェントを前記コメントテキストの読み手として決定するようにしている請求項20、21、22又は23記載の会話表現生成プログラム。

【請求項25】
 
前記モノローグテキストが、その内容の本質的部分である本文部と概要を示す表題部とから構成されるものであり、前記話者決定手段において、前記メインキャスタエージェントを表題部の読み手として決定するようにしている請求項24記載の会話表現生成プログラム。

【請求項26】
 
前記コメント格納部に、会話表現の開始を示すコメントテキストが格納されており、前記コメント選択手段において当該単文テキストの前に他の単文テキストがない場合に前記開始を示すコメントテキストを選択し、前記話者選択手段において、当該コメントテキストに表題部を合成したものをメインキャスタエージェントに対応付けるようにしている請求項25記載の会話表現生成プログラム。

【請求項27】
 
前記モノローグテキストが、その内容の本質的部分である本文部と概要を示す表題部とから構成されるものであり、前記メインキャスタエージェントとは異なる話者エージェントとして一以上のアナウンサーエージェントが設定されてあり、前記話者決定手段において、前記アナウンサーエージェントを本文部の読み手として決定するようにしている請求項24、25又は26記載の会話表現生成プログラム。

【請求項28】
 
前記モノローグテキストが画像データを伴っている場合、前記コンピュータを、前記モノローグテキスト格納部から当該画像データを取得し出力する画像データ処理手段として更に機能させる請求項17、18、19、20、21、22、23、24、25、26又は27記載の会話表現生成プログラム。

【請求項29】
 
前記コメント選択手段において、一のモノローグテキストにおける最終の単文テキストを認識し、最終の単文テキストにおける文末表現パターンに対応付けて次のモノローグテキストへ接続する表現として設定され前記コメント格納部に格納されたコメントテキストから当該最終の単文テキストの文末表現に対応するコメントテキストを選択するようにしている請求項17、18、19、20、21、22、23、24、25、26、27又は28記載の会話表現生成プログラム。

【請求項30】
 
前記文末表現パターンに、現象を述べ立てることを示す現象叙述形式と伝聞であることを示す伝聞形式とが少なくとも含まれるとともに、前記コメントテキストに、現象叙述形式に対応する質問文形式に該当するコメントテキストと伝聞形式に対応する予想文形式に該当するコメントテキストとが少なくとも含まれ、前記文末処理手段において単文テキストの文末表現を現象叙述形式又は伝聞形式の何れかに対応付けるとともに、それに対応して前記コメント選択手段において、質問文形式又は予想文形式の何れか一方のコメントテキストを選択するようにしている請求項17、18、19、20、21、22、23、24、25、26、27、28又は29記載の会話表現生成プログラム。

【請求項31】
 
質問文形式及び予想文形式の前記コメントテキストを、それぞれ複数ずつ設定してあり、コ前記メント選択手段において、それら複数のコメントテキストから何れか一のコメントテキストを選択するようにしている請求項30記載の会話表現生成プログラム。

【請求項32】
 
複数のユーザが入力することにより利用可能な電子掲示板に入力されたモノローグテキストを格納する前記モノローグテキスト格納部と、前記コメント格納部とを有し、且つ、入力された前記モノローグテキストに基づいて生成される会話表現テキストを放送可能なインタラクティブ放送システムにおいて適用され、入力されたモノローグテキストに基づいて会話テキストを生成し、当該会話テキストを放送可能に出力するために用いられるものである請求項17、18、19、20、21、22、23、24、25、26、27、28、29、30又は31記載の会話表現生成プログラム。
IPC(International Patent Classification)
F-term
Drawing

※Click image to enlarge.

JP2002265209thum.jpg
State of application right Registered
Please contact us by E-mail if you have any interests on this patent


PAGE TOP

close
close
close
close
close
close
close