TOP > 国内特許検索 > 音声入力によるテキスト検索装置

音声入力によるテキスト検索装置

国内特許コード P06A009044
整理番号 A171P06
掲載日 2006年6月16日
出願番号 特願2002-073850
公開番号 特開2003-271629
登録番号 特許第4115723号
出願日 平成14年3月18日(2002.3.18)
公開日 平成15年9月26日(2003.9.26)
登録日 平成20年4月25日(2008.4.25)
発明者
  • 藤井 敦
  • 伊藤 克亘
  • 石川 徹也
出願人
  • 独立行政法人産業技術総合研究所
発明の名称 音声入力によるテキスト検索装置
発明の概要 【課題】 音声認識でカバーできない単語を検索用の索引語によって自動的に補完することにより、音声発話の誤認識をなくし、検索精度の向上を図り得る音声入力によるテキスト検索方法およびその装置を提供する。
【解決手段】 ユーザAが検索要求の発話Bをすると、音声認識部1が辞書3、音響モデル2、言語モデル4を用いて、未知語を含むユーザAの発話Bを書き起こし、検索対象テキストコレクション7の索引語から、検出された未知語と音韻的に等価な語もしくは類似する語を探索してユーザAの発話B中の未知語を自動的に補完し、補完された検索要求を用いて再検索を行い、最終的な検索結果を得る。
従来技術、競合技術の概要
従来、このような技術分野の参考文献としては、以下に示されるようなものがあった。
【0003】
〔1〕J.Barnett,S.Anderson,J.Broglio,M.Singh,R.Hudson,and S.W.Kuo.Experiments in spoken queries for document retrieval.In Proceedings of Eurospcech,97,pp.1323-1326,1997.
〔2〕Fabio Crestani.Word recognition errors and relevance feedback in spoken query processing.In Proceedings of the Fourth International Conference on Flexible Query Answring Systems,pp.267-281,2000.
〔3〕Atsushi Fujii,Katunobu Itou,and Tetsuya Ishikawa.Speech-driven text retrieval:Using target IR collections for statistical language model adaptation in speech recognition.In Information Retrieval Techniques for Speech Applications,pp.94-104,Springer,2002.
〔4〕John S.Garofolo,Ellen M.Voorhees,Vincent M.Stanford,and Karen Sparck Jones.Trec-6 1997 spoken document retrieval track overview and results.In Proceedings of the 6th Text REtrieval Conference,pp.83-91,1997.
〔5〕Katunobu Itou,Atsushi Fujii,and Tetsuya Ishikawa.Language modeling for multi-domain speech-driven text retrieval.In IEEE Automatic Speech Recognition and Understanding Workshop,2001.
〔6〕Katunobu Itou,Mikio Yamamoto,Kazuya Takeda,Toshiyuki Takezawa,Tatsuo Matsuoka,Tetsunori Kobayashi,and Kiyohiro Shikano.JNAS:Japanese speech corpus for large vocabulary continuous speech recognition research.Journal of Acoustic Society of Japan,Vol.20,No.3,pp.199-206,1999.
【0004】
〔8〕K.L.Kwok and M.Chan.Improving two-stage ad-hoc retrieval for short queries.In Proceedings of the 21st Annual International ACM SIGIR Conference on Research and Development in Information Retreval,pp.250-256,1998. 〔9〕Douglas B.Paul and Janet M.Baker.The design for the Wall Street Journal-based CSR corpus.In Proceedings of DARPA Speech & Natural Language Workshop,pp.357-362,1992.
〔10〕S.E Robertson and S.Walker.Some simple effective approximations to the 2-poisson model for probabilistic weighted retrieval.In Proceedings of the 17th Annual International ACM SIGIR Conference on Research and Development in Information.Retrieval,pp.232-241,1994.
〔11〕Herman J.M.Steeneken and David A.van Leeuwen.Multilingual assessment of speaker independent large vocabulary speech-recognition systems:The SQALE-project.In Proceedings of Eurospeech95,pp.1271-1274,1995.
【0005】
〔13〕Steve Young.A review of large-vocabulary continuous-speech recognition.IEEE Signal Processing Magazine,pp.45-57,September 1996.
〔14〕伊藤克亘,田中和世.被覆率を重視した大語彙連続音声認識用統計的言語モデル.日本音響学会論文集,pp.65-66,March 1999. 〔15〕鹿野清宏、伊藤克亘、河原達也、武田一哉、山本幹雄(編)、音声認識システム、オーム社、2001.
近年の音声認識技術は、ある程度内容が整理されている発話に対しては実用的な認識精度を達成できるようになっており、様々な応用が考えられる。また、情報検索の分野では音声認識を採り入れた研究も数多く行われている。これらの研究は目的に応じて「音声データの検索」と「音声による検索」の2つに大別される。前者は、TRECのSpoken Document Retrieval(SDR)トラック(参考文献〔4〕)で放送音声データを対象にしたテストコレクションが整備されていることを背景にして盛んに研究が行われ、既に実用レベルに達している(参考文献〔7〕)。
産業上の利用分野
本発明は、音声入力によるテキスト検索装置に関するものである。
特許請求の範囲 【請求項1】(a)音声認識部(1)と、
(b)書き起こし部(5)と、
)テキスト検索部(6)と、
検索対象テキストコレクション(7)と、
)未知語補完部(9)
補完された検索要求部(10)と、
(g)検索結果の出力部(8)とを備え、
(h)ユーザが検索要求を発話すると、前記音声認識部(1)が、音声認識用の辞書に登録されていない未知語を含むユーザの発話を前記書き起こし部(5)で書き起こし、前記検索対象テキストコレクション(7)の索引語から、検出された未知語と音韻的に等価な語もしくは類似する語を探索してユーザの発話中の未知語を自動的に前記未知語補完部(9)で補完し、前記補完された検索要求部(10)で補完された検索要求を用いて前記テキスト検索部(6)で再検索を行い、前記検索結果の出力部(8)から最終的な検索結果を得ることを特徴とする音声入力によるテキスト検索装置。
【請求項2】 請求項記載の音声入力によるテキスト検索装置において、前記音声認識部(1)は、音響モデル(2)、辞書(3)及び言語モデル(4)を有することを特徴とする音声入力によるテキスト検索装置。
産業区分
  • 計算機応用
  • 電子応用機器
国際特許分類(IPC)
Fターム
画像

※ 画像をクリックすると拡大します。

21322_01SUM.gif
出願権利状態 権利存続中
参考情報 (研究プロジェクト等) CREST 高度メディア社会の生活情報技術 領域
ライセンスをご希望の方、特許の内容に興味を持たれた方は、問合せボタンを押してください。


PAGE TOP

close
close
close
close
close
close
close