TOP > 国内特許検索 > 画像認識装置、画像認識方法、および、プログラム > 明細書

明細書 :画像認識装置、画像認識方法、および、プログラム

発行国 日本国特許庁(JP)
公報種別 公開特許公報(A)
公開番号 特開2015-095041 (P2015-095041A)
公開日 平成27年5月18日(2015.5.18)
発明の名称または考案の名称 画像認識装置、画像認識方法、および、プログラム
国際特許分類 G06T   7/00        (2006.01)
FI G06T 7/00 350C
G06T 7/00 350E
請求項の数または発明の数 7
出願形態 OL
全頁数 29
出願番号 特願2013-233400 (P2013-233400)
出願日 平成25年11月11日(2013.11.11)
新規性喪失の例外の表示 特許法第30条第2項適用申請有り IEEE Transactions on Neural Networks and Learning Systems http://dx.doi.org/10.1109/TNNLS.2013.2268542 掲載日 2013年7月3日
公序良俗違反の表示 1.BLU—RAY DISC
発明者または考案者 【氏名】合原 一幸
【氏名】牧野 貴樹
【氏名】奥 牧人
出願人 【識別番号】503360115
【氏名又は名称】独立行政法人科学技術振興機構
個別代理人の代理人 【識別番号】100089118、【弁理士】、【氏名又は名称】酒井 宏明
審査請求 未請求
テーマコード 5L096
Fターム 5L096GA10
5L096GA19
5L096GA24
5L096GA51
5L096HA11
5L096KA04
要約 【課題】連想記憶モデルに記憶させる画像のパターン間の相関を取り除き、干渉の発生や記憶容量の低下を防ぐことができる、画像認識装置、画像認識方法、および、プログラムを提供することを課題とする。
【解決手段】本発明は、ランダムな二値パターンであるマスクパターンを生成し、指定された複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和を求めることにより被マスクパターンを生成する論理演算ステップと、マスクパターンに対応付けた被マスクパターンを連結パターンとして、ニューラルネットワークを用いた連想記憶モデルにて学習させることを特徴とする。
【選択図】図5
特許請求の範囲 【請求項1】
少なくとも記憶部と制御部を備えた画像認識装置であって、
上記制御部は、
ランダムな二値パターンであるマスクパターンを生成するマスク生成手段と、
指定された複数の画像の元パターンと上記マスクパターンとの排他的論理和または否定排他的論理和を求めることにより被マスクパターンを生成する論理演算手段と、
上記マスクパターンに対応付けた上記被マスクパターンを連結パターンとして、ニューラルネットワークを用いた連想記憶モデルにて学習させる学習手段と、
を備えたことを特徴とする画像認識装置。
【請求項2】
請求項1に記載の画像認識装置において、
上記論理演算手段は、
上記複数の画像のうち上記元パターン中の任意の数のビットごとに共通した上記マスクパターンを設定して、上記被マスクパターンを作成すること、
を特徴とする画像認識装置。
【請求項3】
請求項1または2に記載の画像認識装置において、
上記論理演算手段は、
上記複数の画像による長さNの上記元パターンを、先頭からL-1個ずつのブロック単位に区切り、ブロック毎に値が異なる上記マスクパターンを設定して、LN/(L-1)の長さの上記連結パターンを生成すること、
を特徴とする画像認識装置。
【請求項4】
請求項1乃至3のいずれか一つに記載の画像認識装置であって、
上記論理演算手段は、
上記画像の一次元二値データを上記元パターンとして、同じまたは短い長さのランダムな二値データを上記マスクパターンとして、両データの対応する値同士の排他的論理和または否定排他的論理和を求めることにより上記被マスクパターンを生成すること、
を特徴とする画像認識装置。
【請求項5】
請求項1乃至4のいずれか一つに記載の画像認識装置において、
上記学習手段は、
上記マスクパターンを上記記憶部に格納し、
上記論理演算手段は、
指定された、手がかり画像である照合パターンに対して、上記記憶部に記憶された複数の上記マスクパターンの一つを用いて上記排他的論理和または上記否定排他的論理和を求めることにより、マスク化照合パターンを生成し、
上記制御部は、
上記マスク化照合パターンを上記連想記憶モデルに導入して収束するまで状態更新を繰り返し、収束状態のエネルギー関数の値が閾値以下の結果を得られない場合は、別の上記マスクパターンによるマスク化照合パターンを試行することにより、元パターンを探索する想起手段、
を更に備えたことを特徴とする画像認識装置。
【請求項6】
少なくとも記憶部と制御部を備えたコンピュータにおいて実行される画像認識方法であって、
上記制御部において、
ランダムな二値パターンであるマスクパターンを生成するマスク生成ステップと、
指定された複数の画像の元パターンと上記マスクパターンとの排他的論理和または否定排他的論理和を求めることにより被マスクパターンを生成する論理演算ステップと、
上記マスクパターンに対応付けた上記被マスクパターンを連結パターンとして、ニューラルネットワークを用いた連想記憶モデルにて学習させる学習ステップと、
を含むことを特徴とする画像認識方法。
【請求項7】
少なくとも記憶部と制御部を備えたコンピュータに実行させるためのプログラムであって、
上記制御部において、
ランダムな二値パターンであるマスクパターンを生成するマスク生成ステップと、
指定された複数の画像の元パターンと上記マスクパターンとの排他的論理和または否定排他的論理和を求めることにより被マスクパターンを生成する論理演算ステップと、
上記マスクパターンに対応付けた上記被マスクパターンを連結パターンとして、ニューラルネットワークを用いた連想記憶モデルにて学習させる学習ステップと、
を実行させるためのプログラム。
発明の詳細な説明 【技術分野】
【0001】
本発明は、画像認識装置、画像認識方法、および、プログラムに関する。
【背景技術】
【0002】
従来、ニューラルネットワークにおける連想記憶モデルとして、自己連想記憶モデルや系列連想記憶モデル等が開発されている。
【0003】
例えば、特許文献1では、記憶層で、自己増殖型ニューラルネットワークを用いて、入力ベクトルのパターンに対応するノードを接続したサブネットワークを構成して、入力ベクトルのサブクラスとして学習し、連想層で、記憶層にて保持された連想のキーとなるキーベクトルのキークラスと、そのキーベクトルから想起される連想クラスとの間に関連を張り、入力されたキーベクトルから、そのキークラス又は連想クラスに対応するノードの重みを想起結果として出力することが開示されている。
【0004】
また、非特許文献1には、カラー画像を二値データに変換し、あるビットを反転させてリバーシブル符号を生成し、ニューラルネットワークに記憶させることにより、復号化した際に、あるビット表現と反転表現が同じ整数値となるよう調整することが開示されている。
【先行技術文献】
【0005】

【特許文献1】特開2011-86132号公報
【0006】

【非特許文献1】Oku, Makito, Aihara, Kazuyuki, “Associative dynamics of color images in a large-scale chaotic neural network”, Nonlinear Theory and Its Applications, IEICE, Volume 2, Issue 4, pp. 508-521 (2011).
【発明の概要】
【発明が解決しようとする課題】
【0007】
しかしながら、従来の連想記憶モデルにおいては、連想記憶モデルに記憶させる画像のパターン間に相関があると、干渉が発生して記憶容量が低下する、という問題点を有していた。
【0008】
本発明は、上記問題点に鑑みてなされたもので、連想記憶モデルに記憶させる画像のパターン間の相関を取り除き、干渉の発生や記憶容量の低下を防ぐことができる、画像認識装置、画像認識方法、および、プログラムを提供することを目的とする。
【課題を解決するための手段】
【0009】
このような目的を達成するため、本発明の画像認識装置は、少なくとも記憶部と制御部を備えた画像認識装置であって、上記制御部は、ランダムな二値パターンであるマスクパターンを生成するマスク生成手段と、指定された複数の画像の元パターンと上記マスクパターンとの排他的論理和または否定排他的論理和を求めることにより被マスクパターンを生成する論理演算手段と、上記マスクパターンに対応付けた上記被マスクパターンを連結パターンとして、ニューラルネットワークを用いた連想記憶モデルにて学習させる学習手段と、を備えたことを特徴とする。
【0010】
また、本発明の画像認識装置は、上記記載の画像認識装置において、上記論理演算手段は、上記複数の画像のうち上記元パターン中の任意の数のビットごとに共通した上記マスクパターンを設定して、上記被マスクパターンを作成すること、を特徴とする。
【0011】
また、本発明の画像認識装置は、上記記載の画像認識装置において、上記論理演算手段は、上記複数の画像による長さNの上記元パターンを、先頭からL-1個ずつのブロック単位に区切り、ブロック毎に値が異なる上記マスクパターンを設定して、LN/(L-1)の長さの上記連結パターンを生成すること、を特徴とする。
【0012】
また、本発明の画像認識装置は、上記記載の画像認識装置において、上記論理演算手段は、上記画像の一次元二値データを上記元パターンとして、同じまたは短い長さのランダムな二値データを上記マスクパターンとして、両データの対応する値同士の排他的論理和または否定排他的論理和を求めることにより上記被マスクパターンを生成すること、を特徴とする。
【0013】
また、本発明の画像認識装置は、上記記載の画像認識装置において、上記学習手段は、上記マスクパターンを上記記憶部に格納し、上記論理演算手段は、指定された、手がかり画像である照合パターンに対して、上記記憶部に記憶された複数の上記マスクパターンの一つを用いて上記排他的論理和または上記否定排他的論理和を求めることにより、マスク化照合パターンを生成し、上記制御部は、上記マスク化照合パターンを上記連想記憶モデルに導入して収束するまで状態更新を繰り返し、収束状態のエネルギー関数の値が閾値以下の結果を得られない場合は、別の上記マスクパターンによるマスク化照合パターンを試行することにより、元パターンを探索する想起手段、を更に備えたことを特徴とする。
【0014】
また、本発明は画像認識方法に関するものであり、本発明の画像認識方法は、少なくとも記憶部と制御部を備えたコンピュータにおいて実行される画像認識方法であって、上記制御部において、ランダムな二値パターンであるマスクパターンを生成するマスク生成ステップと、指定された複数の画像の元パターンと上記マスクパターンとの排他的論理和または否定排他的論理和を求めることにより被マスクパターンを生成する論理演算ステップと、上記マスクパターンに対応付けた上記被マスクパターンを連結パターンとして、ニューラルネットワークを用いた連想記憶モデルにて学習させる学習ステップと、を含むことを特徴とする。
【0015】
また、本発明はプログラムに関するものであり、本発明のプログラムは、少なくとも記憶部と制御部を備えたコンピュータに実行させるためのプログラムであって、上記制御部において、ランダムな二値パターンであるマスクパターンを生成するマスク生成ステップと、指定された複数の画像の元パターンと上記マスクパターンとの排他的論理和または否定排他的論理和を求めることにより被マスクパターンを生成する論理演算ステップと、上記マスクパターンに対応付けた上記被マスクパターンを連結パターンとして、ニューラルネットワークを用いた連想記憶モデルにて学習させる学習ステップと、を実行させることを特徴とする。
【0016】
また、本発明は記録媒体に関するものであり、上記記載のプログラムを記録したことを特徴とする。
【発明の効果】
【0017】
この発明によれば、ランダムな二値パターンであるマスクパターンを生成し、指定された複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和を求めることにより被マスクパターンを生成し、マスクパターンに対応付けた被マスクパターンを連結パターンとして、ニューラルネットワークを用いた連想記憶モデルにて学習させる。これにより、元の画像はマスクパターンによって乱雑化され、画像のパターン間の相関が小さくなるので、干渉の発生を防ぎ記憶容量の低下を抑えることができるという効果を奏する。また、重みが極端な値を取らないのでハードウェアの実装に都合がよい。
【0018】
また、本発明によれば、複数の画像の元パターン中の任意の数のビットごとに共通したマスクパターンを設定して、被マスクパターンを作成するので、マスクパターンの部分が増えることによる連結パターンの延長を抑えることができ、記憶容量の低下を抑えることができるという効果を奏する。
【0019】
また、本発明によれば、複数の画像による長さNの元パターンを、先頭からL-1個ずつのブロック単位に区切り、ブロック毎に値が異なるマスクパターンを設定して、LN/(L-1)の長さの連結パターンを生成する。これにより、本発明は、マスクパターンをブロック単位で設定して、連結パターンの延長を抑えることができ、記憶容量の低下を抑えることができるという効果を奏する。
【0020】
また、本発明によれば、画像の一次元二値データを元パターンとして、同じまたは短い長さのランダムな二値データをマスクパターンとして、両データの対応する値同士の排他的論理和または否定排他的論理和を求めることにより被マスクパターンを生成するので、簡単な計算で元画像間の相関を小さくすることができるという効果を奏する。
【0021】
また、本発明によれば、指定された、手がかり画像である照合パターンに対して、記憶部に記憶された複数のマスクパターンの一つを用いて排他的論理和または否定排他的論理和を求めることにより、マスク化照合パターンを生成し、マスク化照合パターンを連想記憶モデルに導入して収束するまで状態更新を繰り返し、収束状態のエネルギー関数の値が閾値以下の結果を得られるまで、別のマスクパターンによるマスク化照合パターンを試行して、元パターンを探索する。これにより、本発明は、マスクパターンが分からない場合であっても、照合パターンから対応する正解パターン候補を探し出すことができるという効果を奏する。
【図面の簡単な説明】
【0022】
【図1】図1は、連想記憶モデルの記銘段階を模式的に示した図である。
【図2】図2は、連想記憶モデルの想起段階を模式的に示す図である。
【図3】図3は、互いに相関が小さいパターンを記憶させる場合を模式的に示した図である。
【図4】図4は、互いに相関が大きいパターンを記憶させる場合を模式的に示した図である。
【図5】図5は、元パターンとマスクパターンと被マスクパターンと連結パターンの関係を示す図である。
【図6】図6は、XNOR演算およびXOR演算の一例を示す図である。
【図7】図7は、連結パターンの一例を示す図である。
【図8】図8は、ブロック単位に異なるマスクパターンrを設定した連結パターンの一例を示す図である。
【図9】図9は、本実施の形態が適用される本画像認識装置100の一例を示すブロック図である。
【図10】図10は、本実施の形態における画像認識装置100の基本処理の一例を示すフローチャートである。
【図11】図11は、本実施の形態における画像認識装置100の学習処理の一例を示すフローチャートである。
【図12】図12は、本実施の形態における画像認識装置100の想起処理の一例を示すフローチャートである。
【図13】図13は、本実施例により系列連想記憶モデルから再構成された連続画像を示す図である。
【発明を実施するための形態】
【0023】
以下に、本発明にかかる画像認識装置、画像認識方法、および、プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。例えば、本実施の形態に示す連想記憶モデルに限らず、様々な連想記憶モデルに本発明を適用してもよい。また、以下の実施の形態では、連想記憶モデルとして自己連想記憶モデルを例に説明する場合があるが、これに限られず、系列連想記憶モデル等に適用してもよい。また、連想記憶モデルは、同期的更新でも非同期的更新でもよく、ニューラルネットワークの動態は確率論的であっても決定論的であってもよい。また、本実施の形態において、ニューラルネットワークの結合が疎の場合を例にして説明することがあるが、これに限られず、結合が密なニューラルネットワーク(例えば、全ての神経細胞ユニットが互いに結合しているネットワーク)を用いてもよい。

【0024】
[本発明の実施の形態の概要]
以下、本発明の実施の形態の概要について図1~図8を参照して説明し、その後、本実施の形態の構成および処理等について詳細に説明する。ここで、図1は、連想記憶モデルの記銘段階を模式的に示した図である。

【0025】
連想記憶モデルとは、神経回路網(ニューラルネットワーク)モデルの一種である。連想記憶モデルの一種である、ホップフィールド・ネットワークは、1982年にHopfieldによって提唱されたニューラルネットワークの一モデルである。一例として図1に示すように、神経細胞(ニューロン)ユニットが結合されたニューラルネットワークを構築しておき、神経細胞ユニット間で相互作用させる。神経細胞ユニット間の結合の強さは重み(結合係数)として表現され、学習により強度が増減する。

【0026】
図1では、ニューラルネットワークに、4つのパターンの二値画像を記憶させる記銘段階が模式的に示されている。自己連想記憶モデルの記銘段階では、複数の記憶パターンを記憶させて、想起段階では、その中から1つのパターンを想起させるものである。ネットワークにおける各神経細胞ユニットは、結合する他の神経細胞ユニットからの入力の総和によって、発火するか否かが決まる。自己連想記憶モデルにおける記憶パターンとは、神経細胞ユニットの活動状態(典型的には、発火状態と休止状態の二種類)の並び方のことである。ホップフィールドのモデルでは、記銘段階で、シナプス結合の重みを特定の学習則(Hebb則等)に従い定めることで、記憶パターンは、ニューラルネットワークに記憶される。また、想起段階で、ネットワークの状態を表すエネルギー関数が状態更新則に従って単調に減少し、極小値状態に至るまで繰り返し更新処理が実行される。図2は、連想記憶モデルの想起段階を模式的に示す図である。

【0027】
図2に示すように、自己連想記憶モデルの想起段階では、手がかりとなる照合パターンから、ニューラルネットワークに記憶された元のパターンを探索し、想起されたパターンを得る。より具体的には、記憶パターンを取り出す際には、まず、ニューラルネットワークに手がかりとなる初期パターンを与え、次に、ニューラルネットワークの状態を特定の規則に従い複数回更新することにより、所望の記憶パターンを得る。なお、手がかりパターンは、元のパターンそのものでなくともよく、求めたいパターンの一部を乱したものであってもよい。すなわち、自己連想記憶モデルでは、入力として与えた手がかりパターンと最も似ている記憶済みのパターンが得られる。

【0028】
ネットワークにおけるニューロンの数(神経細胞ユニット数)Nが増えるほど記憶できるパターン数は増えるが、パターン間の相関によって記憶できるパターンの数に限界がある。自己連想記憶モデルが覚えられるパターン数を記憶容量と呼ぶ。理論的な記憶容量の上限として、標準的な学習則や状態更新則を用いた場合には、ニューラルネットワークおよび記憶パターンの大きさNに対して、およそ0.14N程度であることが知られているが、実際には、記憶パターンの相関に大きく影響される。ここで、図3は、互いに相関が小さいパターンを記憶させる場合を、図4は、互いに相関が大きいパターンを記憶させる場合を模式的に示した図である。

【0029】
図3に示すように、記憶パターンがランダムなパターンであって、互いに相関が小さい場合は、理論的な限界に近い0.14Nの記憶容量が得られる。しかしながら、図4に示すように、互いに似通ったパターンを記憶させる場合、記憶パターン間に相関が大きいために、互いに干渉して、一般に記憶容量は著しく低下してしまう。

【0030】
従来、この記憶容量の低下の問題に対して、(1)擬似逆行列を用いたり逐次的に重みを調節したりすることによって学習則を改善する方法、(2)末尾にビットを足したりビットの一部を変更したりすることによってパターン自体に変更を加える方法等が提案されている。しかし、従来の手法はいずれも計算負荷が大きいため、神経回路網および記憶パターンの大きさNが大きい場合には適用することが困難であった。

【0031】
そこで、本願の発明者らが鋭意検討を行ったことにより本発明を開発するに至った。一例として、本願で提案する新手法は、(1)記憶パターン(元パターン)に対してマスクパターンを用意し、(2)記憶パターンとマスクパターンのXNOR演算またはXOR演算により被マスクパターンを生成し、(3)マスクパターンと被マスクパターンを連結した連結パターンを神経回路網に記憶させることを基本的な要素としている。このようにマスクパターンを用いて乱雑化することにより、記憶させるパターンを擬似的に直交化して、相関による記憶容量の低下を抑えることができる。ここで、図5は、元パターンとマスクパターンと被マスクパターンと連結パターンの関係を示す図である。

【0032】
二値の信号列を乱雑化する目的でXOR演算あるいはXNOR演算を行う。図5に示すように、原理としては、元の信号列(元パターン)と、それをマスクするための(擬似)乱数列(ランダムマスク)を用意し、両者のXOR演算ないしXNOR演算を行うことで、乱雑な信号列(被マスクパターン)が得られる。これにより、記憶パターンが乱雑化して相関が小さくなり、パターン間の干渉を低減して、記憶容量の低下を防ぐことができる。

【0033】
より具体的には、本発明の実施の形態は、(1)ランダムな二値パターン(ランダムマスク)のマスクパターンを生成する。なお、二値の出現確率は均等に1/2であることに限らず、多少のバイアスを加えてもよい。

【0034】
そして、本実施の形態は、(2)指定された複数の画像の元パターンとマスクパターンとの排他的論理和(XOR)または否定排他的論理和(XNOR)を求めることにより被マスクパターンを生成する。なお、マスクパターンや1番目の連結パターンは記憶部に格納してもよい。一例として、本実施の形態は、画像の一次元二値データを元パターンとして、同じまたは短い長さのランダムな二値データをマスクパターンとして、両データの対応する値同士の排他的論理和(XOR)または否定排他的論理和(XNOR)を求めることにより被マスクパターンを生成する。ここで、図6は、XNOR演算およびXOR演算の一例を示す図である。

【0035】
元パターン(Input1)とマスクパターン(Input2)が{0,1}の二値データを用いる場合、図6(a)に示すXNOR演算を行い、被マスクパターンの値(Output)を得る。なお、二値データは、いずれの2つの値であってもよく、一例として、元パターン(Original)とマスクパターン(Mask)が{1,-1}の二値データを用いる場合、図6(b)に示すXNOR演算を行い、被マスクパターンの値(Masked)を得てもよい。この場合のXNOR演算は、元パターンrとマスクパターンξを掛け合わせたものr×ξに相当する。

【0036】
一方のXOR演算では、元パターン(Input1)とマスクパターン(Input2)が{0,1}の二値データを用いる場合、図6(c)に示すXOR演算を行い、被マスクパターンの値(Output)を得る。この場合も、二値データは、いずれの2つの値であってもよく、一例として、元パターン(Original)とマスクパターン(Mask)が{1,-1}の二値データを用いる場合、図6(d)に示すXOR演算を行い、被マスクパターンの値(Masked)を得てもよい。この場合のXOR演算は、元パターンrとマスクパターンξを掛け合わせ符号を入れ替えたもの-r×ξに相当する。

【0037】
つづいて、記銘段階では、本実施の形態は、(3)マスクパターンに対応付けた被マスクパターンを連結パターンとして、ニューラルネットワークを用いた連想記憶モデルにて学習させる。なお、連結パターン中のビットの並べ方は、いずれの順序であってもよい。また、連結パターンは、元パターンの情報を完全に保持している。なぜなら、マスクパターンと被マスクパターンのペアに対して再度、同じ論理演算(XNOR/XOR)を行うと、元のパターンが復元できるからである。ここで、図7は、連結パターンの一例を示す図である。

【0038】
一例として図7に示すように、本実施の形態は、一つ一つの元パターンξに対して異なるマスクパターンrを用いてXOR/XNOR演算を行った被マスクパターンrξと、マスクパターンrを交互に並べて連結パターンとして記銘させてもよい(kはブロック番号)。この場合、元パターンの長さがNとすると、2Nの長さの連結パターンが生成されることとなる。そのため、必要なニューロン数(神経細胞ユニット数)は倍増する。

【0039】
そこで、複数の元パターンをブロック単位で区切って、ブロック単位ごとに異なるマスクパターン(ランダムマスク等)を設定して、連結パターンの長さを抑えてもよい。すなわち、マスクパターンのビット数を元パターンよりも少なく用意し、同一の要素(マスク)を複数回のXNOR演算に続けて使用することで、連結パターンの長さを2Nより短くしてもよい。ここで、図8は、ブロック単位に異なるマスクパターンrを設定した連結パターンの一例を示す図である。図8に示すように、本実施の形態は、複数の画像の元パターンを、先頭からL-1個ずつのブロック単位(マスクパターンを入れて長さLのブロック)に区切り、ブロック毎に値が異なるマスクパターンを設定して、LN/(L-1)の長さの連結パターンを生成してもよい。図7の場合は、必要なニューロン数(神経細胞ユニット数)が2倍となるが、図8に示すようにブロック長をLとすることによりL/(L-1)倍に抑えられる。

【0040】
なお、記銘段階に続く想起段階では、通常、手がかりとなる入力パターンから、ニューラルネットワークに記憶された元のパターンを探索し、想起されたパターンを得るが、本実施の形態を適用した場合には、照合パターンに対応するマスクパターンが未知である。そのため、本実施の形態では、手がかり画像である照合パターンに対して、試行により記憶部に記憶された複数のマスクパターンの一つを用いて、排他的論理和(XOR)または否定排他的論理和(XNOR)を求めることにより、マスク化照合パターンを生成し、このマスク化照合パターンを用いて、元のパターンを導出してもよい。すなわち、マスク化照合パターンを連想記憶モデルに導入して収束するまで状態更新を繰り返し、収束状態のエネルギー関数の値が閾値以下の結果を得られた場合に、想起結果のパターンを得てもよい。なお、エネルギー関数の値が閾値以下にならない場合は、別のマスクパターンによるマスク化照合パターンを試行する。

【0041】
以上が本実施の形態の概要である。なお、上記においては、自己連想記憶モデルを例にして説明したが、系列連想記憶モデルを用いる場合、同様に本実施の形態を適用することができる。なお、系列連想記憶モデルは、自己連想記憶モデルの亜種であり、記憶パターンの系列を記憶し、神経回路網の状態を繰り返し更新することで、記憶したパターンを順番どおりに想起するものである。系列連想記憶モデルを用いる場合、理論的な記憶容量の上限は0.14Nではなく0.27Nとなるが、パターン間の相関により記憶容量が低下することに変わりはない。

【0042】
上述のように擬似的に直交化させる手法は、(1)必要な計算が簡単な論理演算(XNOR/XOR)だけなので、計算負荷が小さく実装も簡単であるというメリットがある。また、(2)個々のパターンを独立に処理することができ、パターン同士の関連性を考慮しなくてよいため、計算が簡単でパターンの追加記憶も容易に行えるというメリットがある。さらに、(3)標準的な学習則(ヘブ学習則等)をそのまま適用することができ、その結果得られたシナプス結合の重みが極端な値を取らないため、ハードウェアでの実装に都合がよいというメリットがある。また、(4)神経回路網に記憶されるパターン同士が十分離れ、それらの距離もほぼ均等になるため、どの記憶パターンも安定して想起できる等のメリットがある。

【0043】
[画像認識装置の構成]
次に、本画像認識装置の構成について図9を参照して説明する。図9は、本実施の形態が適用される本画像認識装置100の一例を示すブロック図であり、該構成のうち本実施の形態に関係する部分のみを概念的に示している。

【0044】
図9に示すように、本実施の形態における画像認識装置100は、概略的に、制御部102と記憶部106を少なくとも備え、本実施の形態において、更に、入出力制御インターフェース部108と通信制御インターフェース部104を備える。ここで、制御部102は、画像認識装置100の全体を統括的に制御するCPU等である。また、通信制御インターフェース部104は、通信回線等に接続されるルータ等の通信装置(図示せず)に接続されるインターフェースであり、入出力制御インターフェース部108は、入力部112や出力部114に接続されるインターフェースである。また、記憶部106は、各種のデータベースやテーブルなどを格納する装置である。これら画像認識装置100の各部は任意の通信路を介して通信可能に接続されている。更に、この画像認識装置100は、ルータ等の通信装置および専用線等の有線または無線の通信回線を介して、ネットワーク300に通信可能に接続されている。

【0045】
記憶部106に格納される各種のデータベースやテーブル(マスク保存部106a、ニューロンファイル106b等)は、固定ディスク装置等のストレージ手段である。例えば、記憶部106は、各種処理に用いる各種のプログラム、テーブル、ファイル、データベース、および、ウェブページ等を格納する。

【0046】
これら記憶部106の各構成要素のうち、マスク保存部106aは、マスクパターンや1番目の連結パターン等を記憶するマスク記憶手段である。例えば、マスク保存部106aは、マスク生成部102aにより生成されたマスクパターンを格納してもよい。より具体的には、マスク保存部106aは、マスク生成部102aによりマスクパターンとして生成された乱数列rμ(μ=1,2,・・・,P)を記憶してもよい。

【0047】
また、ニューロンファイル106bは、神経細胞ユニットを識別するインデックスに対応付けて、神経細胞ユニット間のパラメータや神経細胞ユニット毎のパラメータ(係数値等)などニューラルネットワークに関するデータを記憶する神経回路網記憶手段である。一例として、ニューロンファイル106bに記憶されるニューラルネットワークの情報は、神経細胞ユニットiと神経細胞ユニットjの間における重みJij、時刻t(t=1,2,3,...)における、神経回路網の状態x(t)、再構成パターンy(t)、エネルギー関数E(t)、神経細胞ユニットの内部ポテンシャルh(t)等の値である。なお、ニューロンファイル106bには、予めこれらパラメータのt=0の場合で数値が与えられていない場合、初期パラメータが記憶されてもよい。後述する学習部102cおよび想起部102dにより状態更新(t→t+1)が行われる毎に、上述の値が更新されてもよい。

【0048】
また、入出力制御インターフェース部108は、入力部112や出力部114の制御を行う。ここで、出力部114としては、モニタ(家庭用テレビを含む)の他、スピーカを用いることができる(なお、以下においては出力部114をモニタとして記載する場合がある)。また、入力部112としては、キーボード、マウス、およびマイク等を用いることができる。

【0049】
また、図9において、制御部102は、OS(Operating System)等の制御プログラムや、各種の処理手順等を規定したプログラム、および、所要データを格納するための内部メモリを有する。そして、制御部102は、これらのプログラム等により、種々の処理を実行するための情報処理を行う。制御部102は、機能概念的に、マスク生成部102a、論理演算部102b、学習部102c、および、想起部102dを備える。

【0050】
このうち、マスク生成部102aは、マスクパターンを生成するマスク生成手段である。本実施の形態において、マスク生成部102aは、ランダムな二値パターンであるマスクパターンを生成する。一例として、マスク生成部102aは、乱数表等を用いて、乱数列rμ(μ=1,2,・・・,P)を生成してもよい。なお、発生させる二値(例えば、1と-1)の出現確率Prob(rμ=±1)は、均等に1/2であることに限らず、多少のバイアス(バイアスパラメータa)を加えて(1±a)/2としてもよい。

【0051】
また、論理演算部102bは、マスク生成部102aにより生成されたマスクパターン(ランダムマスク等)と、元パターンとの論理演算(XNOR/XOR)を行うことにより被マスクパターンを生成する論理演算手段である。例えば、論理演算部102bは、図6を用いて上述したようにXNOR演算またはXOR演算を行う。

【0052】
ここで、論理演算部102bは、複数の画像の元パターン中の任意の数のビットごとにブロック化して、ブロック単位で共通したマスクパターン(ランダムマスク等)を設定して、被マスクパターンを作成してもよい。より具体的には、論理演算部102bは、複数の画像による長さNの元パターンを、先頭からL-1個ずつのブロック単位に区切り(ただし、NはL-1で割り切れるものとする。)、ブロック毎に値が異なるマスクパターンを設定して、LN/(L-1)の長さの連結パターンを生成してもよい。なお、論理演算部102bは、想起段階において、マスク保存部106aから1つのマスクパターンを取り出して、照合パターンとの論理演算(XNOR/XOR)を行い、マスク化照合パターンを生成してもよい。そして、もし想起部102dにおいて、取り出したマスクパターンを用いたマスク化照合パターンで想起が失敗した場合は、別のマスクパターンを取り出して、新たなマスク化照合パターンを生成する。

【0053】
また、学習部102cは、ニューラルネットワークを用いた連想記憶モデルにて連結パターンを学習させる学習手段である。一方、想起部102dは、ニューラルネットワークを用いた連想記憶モデルにて手がかりとなる照合パターンから元パターンを探索する想起手段である。なお、本実施の形態において、学習部102cは、想起部102dによる自己連想記憶モデルの想起段階のために、用いたマスクパターンをマスク保存部106aに格納してもよい。想起段階では、想起部102dは、マスク保存部106aに格納されたマスクパターンを試行錯誤的に一つ選んで、照合マスクとの論理演算を行うことでマスク化照合パターンを得ることができる。また、系列連想記憶モデルの場合、学習部102cは、1番目の連結パターンのみをマスク保存部106aに格納してもよい。想起段階では、想起部102dは、マスク保存部106aに記憶された連結パターンをニューラルネットワークの初期状態に設定して、状態更新する毎に復号化を行い出力させることで、元パターンを得てもよい。

【0054】
ここで、数式による説明を行う。記憶させたい元のパターンを{ξμ,ξμ,...,ξμ}と表す。μはパターン番号で、1からPまでの整数値を取る。ξμは、μ番目の元パターンのi番目の値を表し、本実施の形態では1か-1のいずれかの値を取る。これに対し、マスクパターンは、{rμ,rμ,...,rμ}と表す。本実施の形態において、rμは、μ番目のマスクパターンのi番目の値を示し、ランダムに1か-1の値を取る。記憶パターンのある値ξμと、それに対応するマスクパターンの値rμとの間で、XNOR演算をした結果はξμμとなる(XOR演算の場合は-ξμμ)。

【0055】
ブロック長L=2の場合、マスクパターン{rμ,rμ,...,rμ}と被マスクパターン{ξμμ,ξμμ,...,ξμμ}から1つずつ交互の取ってきて繋げたもの{rμ,ξμμ,rμ,ξμμ,...,rμ,ξμμ}が、学習部102cの制御によりニューラルネットワークに記憶させる長さ2Nの連結パターンである。ここで、記号を置き換えて、連結パターン{ημ,ημ,...,ημN´}と表す。ただし、N´=2Nである。

【0056】
ブロック長L=2以上の場合、μ番目の元パターンのk番目のブロックを{ξμk,1,ξμk,2,...,ξμk,L-1}と表す。これに対応するマスクパターンの値をrμとし、論理演算(XNOR/XOR)および連結操作を行うことで、長さLのブロック{rμ,rμξμk,1,rμξμk,2,...,rμξμk,L-1}を得る。これをブロック順に並べたものを連結パターンとしてもよい。この場合、N´=LN/(L-1)となる。なお、上記の連結パターンの並び順は一例であり、連結パターンにおいて被マスクパターンとマスクパターンの並び順は任意である。

【0057】
学習部102cによる連結パターンの学習には、一例として、標準的なヘブ学習則を用いてもよい。自己連想記憶モデルの場合、j番目の神経細胞ユニットからi番目の神経細胞ユニットへのシナプス結合の強度をJijと表し、i≠jの場合について、学習部102cは、以下の式に従い値を定める。なお、i=jの場合は、Jii=0とする。
【数1】
JP2015095041A_000003t.gif

【0058】
一方、系列連想記憶モデルの場合、学習部102cは、以下の式に従い値を定める。ただし、ημ+1=ηとする。
【数2】
JP2015095041A_000004t.gif

【0059】
ニューラルネットワークの時刻tにおける状態を{x(t),x(t),...,xN´(t)}と表す。x(t)は、i番目の神経細胞ユニットの活動状態を表し、1(発火状態)か-1(休止状態)のいずれかの値を取る。ニューラルネットワークの状態更新には、同期更新と非同期更新、決定論的更新と確率的更新のそれぞれの組み合わせにより、4通りが考えられるが、いずれの組み合せを採用してもよい。最も単純な同期更新と決定論的更新を組み合せる方式では、自己連想記憶モデルの場合も、系列連想記憶モデルの場合も、学習部102cおよび想起部102dは、以下の式に従って状態更新を行ってもよい。ここで、sgn(h)は、h≧0のとき1を、h<0のとき-1を返す関数である。
【数3】
JP2015095041A_000005t.gif

【0060】
一例として、学習部102cおよび想起部102dは、ニューラルネットワークの状態が収束するまで状態更新を繰返す。系列連携記憶モデルの場合は、状態更新を1ステップ行う毎に、ニューラルネットワークの状態が変化する。

【0061】
一例として、想起部102dは、初期パターンをニューラルネットワークに設定して、エネルギー関数の値が収束するまで状態更新を繰り返すことによって、対応する元パターンを探索する。例えば、想起部102dは、マスク化照合パターンとマスクパターンを連結した連結パターンを初期パターンとして設定してもよい。

【0062】
なお、想起部102dは、収束状態で閾値以下のエネルギー関数の値を得られない場合は、偽アトラクタにトラップされて想起が失敗したとして、別のマスクパターン(例えば、μ→μ+1)を用いたマスク化照合パターンで試行することにより、元パターンを探索する。すなわち、正しいマスクパターンを用いて変換しないと、ニューラルネットワークの状態が偽アトラクタに高い確率でトラップされる性質を利用して、想起部102dは、正しいマスクパターンを探し出す。一方、正しいマスクパターンを用いて変換すれば、収束状態におけるニューラルネットワークのエネルギー関数の値は、十分低くなるので、その場合に想起成功とみなして、想起部102bは、状態を復号化し、元パターンの出力を得る。ここで、想起部102dは、以下の式を用いて、ニューラルネットワークの状態を復号してもよい。なお、再構成パターンを{y(t),y(t),...,y(t)}と表す。

(t)=x2k-1(t)x2k(t)

【0063】
なお、系列連想記憶モデルの場合は、学習部102cは、1番目の連結パターンのみをニューラルネットワークとは別にマスクファイル106aに格納してもよい。そして、想起部102dは、マスクファイル106aに格納された1番目の連結パターンをニューラルネットワークの初期状態に設定し、神経回路網の状態を更新する毎に復号化を行い出力させることで、元パターンの系列を取り出すことができる。

【0064】
以上が、本実施の形態における画像認識装置100の構成の一例である。なお、画像認識装置100は、ネットワーク300を介して外部システム200に接続されてもよい。この場合、通信制御インターフェース部104は、画像認識装置100とネットワーク300(またはルータ等の通信装置)との間における通信制御を行う。すなわち、通信制御インターフェース部104は、他の端末と通信回線を介してデータを通信する機能を有する。また、ネットワーク300は、画像認識装置100と外部システム200とを相互に接続する機能を有し、例えば、インターネット等である。

【0065】
また、外部システム200は、ネットワーク300を介して、画像認識装置100と相互に接続され、各種パラメータに関する外部データベースや、接続されたコンピュータ(情報処理装置)に画像認識方法を実行させるためのプログラム等を提供する機能を有する。

【0066】
ここで、外部システム200は、WEBサーバやASPサーバ等として構成していてもよい。また、外部システム200のハードウェア構成は、一般に市販されるワークステーション、パーソナルコンピュータ等の情報処理装置およびその付属装置により構成していてもよい。また、外部システム200の各機能は、外部システム200のハードウェア構成中のCPU、ディスク装置、メモリ装置、入力装置、出力装置、通信制御装置等およびそれらを制御するプログラム等により実現される。

【0067】
以上で、本実施の形態の構成の説明を終える。

【0068】
[画像認識装置100の処理]
次に、このように構成された本実施の形態における画像認識装置100の処理の一例について、以下に図10を参照して詳細に説明する。図10は、本実施の形態における画像認識装置100の基本処理の一例を示すフローチャートである。

【0069】
図10に示すように、まず、マスク生成部102aは、ランダムな二値パターンであるランダムマスクを生成する(ステップSA-1)。一例として、マスク生成部102aは、乱数表等を用いて、乱数列rμ(μ=1,2,・・・,P)を生成してもよい。

【0070】
そして、論理演算部102bは、マスク生成部102aにより生成されたマスクパターン(ランダムマスク)と元パターンとの論理演算(XNOR演算またはXOR演算)を行うことにより被マスクパターンを生成する(ステップSA-2)。ここで、論理演算部102bは、複数の画像の元パターン中の任意の数のビットごとにブロック化して、ブロック単位で共通したランダムマスクを設定して、被マスクパターンを作成してもよい。

【0071】
そして、学習部102cは、ニューラルネットワークを用いた連想記憶モデルにて連結パターンを学習させる(ステップSA-3)。なお、学習部102cは、自己連想記憶モデルの想起段階のために、マスクパターンをマスク保存部106aに格納してもよく、系列連想記憶モデルの想起段階のために、1番目の連結パターンのみをマスク保存部106aに格納してもよい。

【0072】
そして、想起部102dは、手がかりパターンに基づいて、初期状態のニューラルネットワークに連結パターンを設定して、エネルギー関数の値が収束するまで状態更新を繰り返すことによって、対応する元パターンを探索する(ステップSA-4)。なお、自己連想記憶モデルの場合、想起部102dは、論理演算部102bの処理により、マスク保存部106aから1つのマスクパターンを取り出して、照合パターンとの論理演算(XNOR/XOR)を行い、マスク化照合パターンを生成して初期状態の連結パターンとして設定する。想起部102dは、取り出したマスクパターンを用いたマスク化照合パターンで想起が失敗した場合は、別のマスクパターンを取り出して、新たなマスク化照合パターンを生成する。想起部102dは、エネルギー関数の値が収束するまで状態更新を行い、収束状態でエネルギー関数の値が所定の閾値以下の場合に、想起が成功したとして、その状態からパターンを復号し、復号化したパターンを出力部114等に出力する。一方、系列連想記憶モデルの場合、想起部102dは、マスク保存部106aから1番目の連結パターンを取り出してニューラルネットワークの初期状態に設定し、神経回路網の状態を更新する毎に復号化を行い出力させることで、元パターンの系列を取り出すことができる。

【0073】
以上が、本実施形態における画像認識装置100の基本処理の一例である。

【0074】
[学習処理]
つぎに、画像認識装置100の基本処理をより具体化した学習処理の一例について以下に図11を参照して説明する。ここで、図11は、本実施の形態における画像認識装置100の学習処理の一例を示すフローチャートである。

【0075】
図11に示すように、学習部102cは、利用者に入力部112を介して、パターンの長さN、パターン数P、ブロック長Lを入力させる(ステップSB-1)。なお、学習部102cは、入力部112を介して入力された画像群からN,P,Lの値を計算により求めてもよい。

【0076】
そして、学習部102cは、ニューロンファイル106bに記憶された全ての結合係数Jijを0に初期化する(ステップSB-2)。

【0077】
そして、学習部102cは、パターン番号kに1を代入する(ステップSB-3)。

【0078】
そして、マスク生成部102aは、1と-1の出現確率Prob(rμ=±1)を1/2として、マスクとして乱数列rμ(μ=1,2,・・・,P)を生成する(ステップSB-4)。

【0079】
そして、論理演算部102bは、XORまたはXNORの論理演算により、k番目の入力パターンをマスクでランダム化させる(ステップSB-5)。

【0080】
そして、学習部102cは、ヘブ学習則等に従い、ランダム化させたパターンをニューラルネットワークに記憶させる学習処理を行う(ステップSB-6)。

【0081】
そして、学習部102cは、パターン番号kがパターン数Pに達していない場合(ステップSB-7,No)、kをインクリメント(k→k+1)し(ステップSB-8)、上述したステップSB-4~SB-7の処理を繰返す。

【0082】
一方、パターン番号kがパターン数Pに達した場合(ステップSB-7,Yes)、結合係数の行列Jをニューロンファイル106bに出力し(ステップSB-9)、学習処理を終える。

【0083】
[想起処理]
つづいて、画像認識装置100の基本処理をより具体化した想起処理の一例について以下に図12を参照して説明する。ここで、図12は、本実施の形態における画像認識装置100の想起処理の一例を示すフローチャートである。

【0084】
図12に示すように、まず、想起部102dは、利用者に入力部112等を介して、手がかりとなる画像データである照合パターンを入力させるよう制御する(ステップSC-1)。

【0085】
そして、想起部102dは、マスク番号kに1を代入する(ステップSC-2)。

【0086】
そして、想起部102dは、マスク保存部106aからk番目のマスクを取得する(ステップSC-3)。

【0087】
そして、論理演算部102bは、ステップSB-5で用いた論理演算により、入力された照合パターンをk番目のマスクでランダム化させる(ステップSC-4)。

【0088】
そして、想起部102dは、ランダム化パターンをニューラルネットワークの初期状態に設定する(ステップSC-5)。

【0089】
そして、想起部102dは、ニューラルネットワークの状態更新を行う(ステップSC-6)。

【0090】
そして、想起部102dは、ニューラルネットワークの状態が収束したか否かを判定する(ステップSC-7)。例えば、想起部102dは、状態変数x(t)が更新しても同じ値となった場合や、数回の状態更新の周期で同じパターンの値を繰返す場合に、収束したと判定してもよい。

【0091】
ニューラルネットワークの状態が収束していない場合(ステップSC-7,No)、想起部102dは、ステップSC-6に処理を戻し、更に状態更新を行う(時刻t→t+1)。

【0092】
一方、ニューラルネットワークの状態が収束したと判定した場合(ステップSC-7,Yes)、想起部102dは、エネルギー関数E(t)の値に基づいて、想起が成功したか否かを判定する(ステップSC-8)。例えば、想起部102dは、エネルギー関数E(t)の値が所定の閾値以下である場合に、想起成功と判定してもよい。想起が成功した場合(ステップSC-8,Yes)、想起部102dは、ニューラルネットワークの状態x(t)を復号化して、再構成パターンを出力部114に出力する(ステップSC-9)。

【0093】
一方、想起が成功しなかった場合(ステップSC-8,No)、想起部102dは、パターン番号kがパターン数Pに達したか否かを判定し(ステップSC-10)、k=Pでない場合は(SC-10,No)、kをインクリメント(k→k+1)し(ステップSC-11)、上述したステップSC-3~SC-8の処理を繰返す。想起が成功しないまま(ステップSC-8,No)、パターン番号kがパターン数Pに達した場合は(ステップSC-10,Yes)、想起部102dは、想起失敗のエラーを出力し(ステップSC-12)、想起処理を終える。

【0094】
[実施例]
つづいて、上述した実施の形態を、系列連想記憶モデルにおける動画再生に用いた実施例について、以下に図13を参照して説明する。図13は、本実施例により系列連想記憶モデルから再構成された連続画像を示す図である。

【0095】
ブロック単位の処理法の実施例として、動画の記憶および再生に応用した例を説明する。ここで用いる画像系列は、公開されている画像データベースColumbia Object Image Library(COIL-100)の中にある、縦が128ピクセル、横が128ピクセルの24ビットRGBで表現された72枚の画像である。このような連続画像は、背景が共通しており、連続的に動くために、画像間で相関が大きいため、本実施の形態の手法を用いてブロック単位で擬似的に直交化させた。

【0096】
各画像データは、連想記憶モデルで扱えるように、長さN=393216ビットの二値データに変換して使用した。これらの元データをブロック長L=9で連結パターンに変換し、結合が疎な系列連想記憶モデルに記憶させた。結合が疎であるとは、各神経細胞ユニットが他の少数の神経細胞ユニットからのみ入力を受け取り、それ以外の神経細胞ユニットからの入力を受け取らないということである。このことは、実装上は、入力結合の無い神経細胞ユニット間の結合重みを0に設定することに相当する。本実施例では、各神経細胞ユニットが受け取る結合数を一律にK=500と定め、神経細胞ユニット毎にランダムに定めた他の500個の神経細胞ユニットから結合を受け取るようにし、その部分についてのみ学習則を適用した。

【0097】
画像系列の最初の画像に対応する連結パターンを神経回路網の初期値に定め、状態更新則を順次適用し、各更新ステップで神経回路網の状態から再構成パターンを計算して出力した。その結果、図13に示すように、元の画像系列と非常に近い画像が順番どおりに出力された。

【0098】
また、系列連想記憶モデルの性質から、最後のパターンの次の更新ステップでは最初のパターンに戻るようになっているが、出力は72枚の画像を周期的に繰り返し、長期的に画像が崩れていくということは無かった。この実施例は、提案手法により元データが持つ相関が十分に取り除かれ、系列連想記憶モデルで記憶および想起可能なパターンに変換できたことが実証された。なお、本実施例では、実際にはカラー画像を用いたが、電子出願の様式上、図13では白黒で表示している。本実施例の結果得られたカラー画像については、公表論文を参照することができる(Makito Oku, Takaki Makino, and Kazuyuki Aihara, “Pseudo-Orthogonalization of Memory Patterns for Associative Memory” Neural Networks and Learning Systems, IEEE Transactions, 2013, Volume:24 , Issue: 11, pp.1877-1887)。

【0099】
以上で、本実施の形態の説明を終える。

【0100】
[他の実施の形態]
さて、これまで本発明の実施の形態について説明したが、本発明は、上述した実施の形態以外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実施の形態にて実施されてよいものである。

【0101】
また、画像認識装置100がスタンドアローンの形態で処理を行う場合を一例に説明したが、画像認識装置100は、クライアント端末からの要求に応じて処理を行い、その処理結果を当該クライアント端末に返却するようにしてもよい。

【0102】
また、実施の形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。

【0103】
このほか、上記文献中や図面中で示した処理手順、制御手順、具体的名称、各処理の登録データや検索条件等のパラメータを含む情報、画面例、データベース構成については、特記する場合を除いて任意に変更することができる。

【0104】
また、画像認識装置100に関して、図示の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。

【0105】
例えば、画像認識装置100の各装置が備える処理機能、特に制御部102にて行われる各処理機能については、その全部または任意の一部を、CPU(Central Processing Unit)および当該CPUにて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジックによるハードウェアとして実現してもよい。なお、プログラムは、後述する記録媒体に記録されており、必要に応じて画像認識装置100に機械的に読み取られる。すなわち、ROMまたはHDなどの記憶部106などには、OS(Operating System)として協働してCPUに命令を与え、各種処理を行うためのコンピュータプログラムが記録されている。このコンピュータプログラムは、RAMにロードされることによって実行され、CPUと協働して制御部を構成する。

【0106】
また、このコンピュータプログラムは、画像認識装置100に対して任意のネットワーク300を介して接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。

【0107】
また、本発明に係るプログラムを、コンピュータ読み取り可能な記録媒体に格納してもよく、また、プログラム製品として構成することもできる。ここで、この「記録媒体」とは、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD-ROM、MO、DVD、および、Blu-ray Disc等の任意の「可搬用の物理媒体」を含むものとする。

【0108】
また、「プログラム」とは、任意の言語や記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。なお、「プログラム」は必ずしも単一的に構成されるものに限られず、複数のモジュールやライブラリとして分散構成されるものや、OS(Operating System)に代表される別個のプログラムと協働してその機能を達成するものをも含む。なお、実施の形態に示した各装置において記録媒体を読み取るための具体的な構成、読み取り手順、あるいは、読み取り後のインストール手順等については、周知の構成や手順を用いることができる。

【0109】
記憶部106に格納される各種のデータベース等(マスク保存部106a、ニューロンファイル106b等)は、RAM、ROM等のメモリ装置、ハードディスク等の固定ディスク装置、フレキシブルディスク、および、光ディスク等のストレージ手段であり、各種処理やウェブサイト提供に用いる各種のプログラム、テーブル、データベース、および、ウェブページ用ファイル等を格納する。

【0110】
また、画像認識装置100は、既知のパーソナルコンピュータ、ワークステーション等の情報処理装置として構成してもよく、また、該情報処理装置に任意の周辺装置を接続して構成してもよい。また、画像認識装置100は、該情報処理装置に本発明の方法を実現させるソフトウェア(プログラム、データ等を含む)を実装することにより実現してもよい。

【0111】
更に、装置の分散・統合の具体的形態は図示するものに限られず、その全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。すなわち、上述した実施形態を任意に組み合わせて実施してもよく、実施形態を選択的に実施してもよい。
【産業上の利用可能性】
【0112】
以上詳述に説明したように、本発明によれば、連想記憶モデルに記憶させる画像のパターン間の相関を取り除き、干渉の発生や記憶容量の低下を防ぐことができる、画像認識装置、画像認識方法、および、プログラムを提供することができ、特に画像認識や画像処理などの様々な分野において極めて有用である。
【符号の説明】
【0113】
100 画像認識装置
102 制御部
102a マスク生成部
102b 論理演算部
102c 学習部
102d 想起部
104 通信制御インターフェース部
106 記憶部
106a マスク保存部
106b ニューロンファイル
108 入出力制御インターフェース部
112 入力部
114 出力部
200 外部システム
300 ネットワーク
図面
【図1】
0
【図2】
1
【図3】
2
【図4】
3
【図5】
4
【図6】
5
【図7】
6
【図8】
7
【図9】
8
【図10】
9
【図11】
10
【図12】
11
【図13】
12