TOP > 国内特許検索 > 画像認識装置、画像認識方法、および、プログラム > 明細書

明細書 :画像認識装置、画像認識方法、および、プログラム

発行国 日本国特許庁(JP)
公報種別 公開特許公報(A)
公開番号 特開2015-095042 (P2015-095042A)
公開日 平成27年5月18日(2015.5.18)
発明の名称または考案の名称 画像認識装置、画像認識方法、および、プログラム
国際特許分類 G06T   1/40        (2006.01)
G06N   3/00        (2006.01)
G06N   3/04        (2006.01)
FI G06T 1/40
G06N 3/00 560C
G06N 3/04 Z
請求項の数または発明の数 10
出願形態 OL
全頁数 31
出願番号 特願2013-233401 (P2013-233401)
出願日 平成25年11月11日(2013.11.11)
新規性喪失の例外の表示 特許法第30条第2項適用申請有り IEEE Transactions on Neural Networks and Learning Systems http://dx.doi.org/10.1109/TNNLS.2013.2268542 掲載日 2013年7月3日
公序良俗違反の表示 1.BLU—RAY DISC
発明者または考案者 【氏名】合原 一幸
【氏名】牧野 貴樹
【氏名】奥 牧人
出願人 【識別番号】503360115
【氏名又は名称】独立行政法人科学技術振興機構
個別代理人の代理人 【識別番号】100089118、【弁理士】、【氏名又は名称】酒井 宏明
審査請求 未請求
テーマコード 5B057
Fターム 5B057CH08
5B057DA12
5B057DB02
5B057DB05
5B057DB08
5B057DC33
5B057DC40
要約 【課題】マスク化されたパターンが保存されている場合に、マスクパターンを用いずに、対応するパターンを取り出すことができる、画像認識装置、画像認識方法、および、プログラムを提供することを課題とする。
【解決手段】本発明は、複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルにおいて、手がかり画像である照合パターンを連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める際に、状態更新に伴って復号化された再構成パターンと照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と同じ値を取り易いように制約する。
【選択図】図9
特許請求の範囲 【請求項1】
少なくとも記憶部と制御部を備えた画像認識装置であって、
上記記憶部は、
複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを、神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルに関する情報を記憶し、
上記制御部は、
指定された、手がかり画像である照合パターンを上記連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める想起手段と、
上記想起手段により上記状態更新に伴って復号化された上記再構成パターンと、上記照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手段と、
を備えたことを特徴とする画像認識装置。
【請求項2】
請求項1に記載の画像認識装置において、
上記想起手段は、
焼き鈍し法により、上記状態更新に伴って温度を徐々に下げることにより上記ニューラルネットワークの状態を収束させて、エネルギー関数の値がローカルミニマムに陥らないように制御すること、
を特徴とする画像認識装置。
【請求項3】
請求項2に記載の画像認識装置において、
上記想起手段は、
1回の上記状態更新ごとに、逆温度に増加率を乗ずることにより、指数関数的に温度を下げること、
を特徴とする画像認識装置。
【請求項4】
請求項3に記載の画像認識装置において、
上記比較手段は、
上記制約を加えるために、上記再構成パターンと上記照合パターン間の値の積の総和に応じて、上記ニューラルネットワークのエネルギー関数の値が小さくなる制約項を設定すること、
を特徴とする画像認識装置。
【請求項5】
請求項4に記載の画像認識装置において、
上記神経細胞ユニットの内部ポテンシャルは、
上記制約項付きのエネルギー関数を当該神経細胞ユニットの状態で偏微分して符号を反転させたものであり、
上記神経細胞ユニットの状態更新確率は、
上記内部ポテンシャルと上記逆温度の積の符号を反転させたものを基数とした指数に1を加えたものを分母とし、1を分子とする分数で表され、
上記想起手段は、
1回の上記状態更新ごとに、上記状態更新確率を再計算すること、
を特徴とする画像認識装置。
【請求項6】
請求項1乃至5のいずれか一つに記載の画像認識装置において、
上記想起手段は、
初期状態で上記ニューラルネットワークをランダムな値に設定し、同期的かつ確率的な更新則に従って、上記ニューラルネットワークの状態を更新すること、
を特徴とする画像認識装置。
【請求項7】
請求項1乃至6に記載の画像認識装置において、
上記マスクパターンは、
ランダムな二値パターンであること、
を特徴とする画像認識装置。
【請求項8】
請求項7に記載の画像認識装置において、
上記被マスクパターンは、
上記複数の画像のうち上記元パターン中の任意の数のビットごとに共通した上記マスクパターンにより作成されたパターンであること、
を特徴とする画像認識装置。
【請求項9】
少なくとも記憶部と制御部を備えたコンピュータにおいて実行される画像認識方法であって、
上記記憶部は、
複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを、神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルに関する情報を記憶しており、
上記制御部において実行される、
指定された、手がかり画像である照合パターンを上記連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める想起手順と、
上記想起手段により上記状態更新に伴って復号化された上記再構成パターンと、上記照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手順と、
を含むことを特徴とする画像認識方法。
【請求項10】
少なくとも記憶部と制御部を備えたコンピュータに実行させるためのプログラムであって、
上記記憶部は、
複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを、神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルに関する情報を記憶しており、
上記制御部において実行される、
指定された、手がかり画像である照合パターンを上記連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める想起手順と、
上記想起手段により上記状態更新に伴って復号化された上記再構成パターンと、上記照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手順と、
を実行させるためのプログラム。
発明の詳細な説明 【技術分野】
【0001】
本発明は、画像認識装置、画像認識方法、および、プログラムに関する。
【背景技術】
【0002】
従来、ニューラルネットワークにおける連想記憶モデルとして、自己連想記憶モデルや系列連想記憶モデル等が開発されている。
【0003】
例えば、特許文献1では、記憶層で、自己増殖型ニューラルネットワークを用いて、入力ベクトルのパターンに対応するノードを接続したサブネットワークを構成して、入力ベクトルのサブクラスとして学習し、連想層で、記憶層にて保持された連想のキーとなるキーベクトルのキークラスと、そのキーベクトルから想起される連想クラスとの間に関連を張り、入力されたキーベクトルから、そのキークラス又は連想クラスに対応するノードの重みを想起結果として出力することが開示されている。
【0004】
また、非特許文献1には、カラー画像を二値データに変換し、あるビットを反転させてリバーシブル符号を生成し、ニューラルネットワークに記憶させることにより、復号化した際に、あるビット表現と反転表現が同じ整数値となるよう調整することが開示されている。
【先行技術文献】
【0005】

【特許文献1】特開2011-86132号公報
【0006】

【非特許文献1】Oku, Makito, Aihara, Kazuyuki, “Associative dynamics of color images in a large-scale chaotic neural network”, Nonlinear Theory and Its Applications, IEICE, Volume 2, Issue 4, pp. 508-521 (2011).
【発明の概要】
【発明が解決しようとする課題】
【0007】
しかしながら、従来の連想記憶モデルにおいて、記銘段階で、マスクパターンでマスク化された画像パターンが記憶されている場合に、想起段階で、記銘に用いたマスクパターンを用いずに、手がかりとなる照合パターンのみから想起パターンを得ることができない、という問題点を有していた。
【0008】
本発明は、上記問題点に鑑みてなされたもので、マスク化されたパターンが保存された連想記憶モデルのニューラルネットワークにおいて、マスクパターンを用いずに、対応するパターンを取り出すことができる、画像認識装置、画像認識方法、および、プログラムを提供することを目的とする。
【課題を解決するための手段】
【0009】
このような目的を達成するため、本発明の画像認識装置は、少なくとも記憶部と制御部を備えた画像認識装置であって、上記記憶部は、複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを、神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルに関する情報を記憶し、上記制御部は、指定された、手がかり画像である照合パターンを上記連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める想起手段と、上記想起手段により上記状態更新に伴って復号化された上記再構成パターンと、上記照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手段と、を備えたことを特徴とする。
【0010】
また、本発明の画像認識装置は、上記記載の画像認識装置において、上記想起手段は、焼き鈍し法により、上記状態更新に伴って温度を徐々に下げることにより上記ニューラルネットワークの状態を収束させて、エネルギー関数の値がローカルミニマムに陥らないように制御すること、を特徴とする。
【0011】
また、本発明の画像認識装置は、上記記載の画像認識装置において、上記想起手段は、1回の上記状態更新ごとに、逆温度に増加率を乗ずることにより、指数関数的に温度を下げること、を特徴とする。
【0012】
また、本発明の画像認識装置は、上記記載の画像認識装置において、上記比較手段は、上記制約を加えるために、上記再構成パターンと上記照合パターン間の値の積の総和に応じて、上記ニューラルネットワークのエネルギー関数の値が小さくなる制約項を設定すること、を特徴とする。
【0013】
また、本発明の画像認識装置は、上記記載の画像認識装置において、上記神経細胞ユニットの内部ポテンシャルは、上記制約項付きのエネルギー関数を当該神経細胞ユニットの状態で偏微分して符号を反転させたものであり、上記神経細胞ユニットの状態更新確率は、上記内部ポテンシャルと上記逆温度の積の符号を反転させたものを基数とした指数に1を加えたものを分母とし、1を分子とする分数で表され、上記想起手段は、1回の上記状態更新ごとに、上記状態更新確率を再計算すること、を特徴とする。
【0014】
また、本発明の画像認識装置は、上記記載の画像認識装置において、上記想起手段は、初期状態で上記ニューラルネットワークをランダムな値に設定し、同期的かつ確率的な更新則に従って、上記ニューラルネットワークの状態を更新すること、を特徴とする。
【0015】
また、本発明の画像認識装置は、上記記載の画像認識装置において、上記マスクパターンは、ランダムな二値パターンであること、を特徴とする。
【0016】
また、本発明の画像認識装置は、上記記載の画像認識装置において、上記被マスクパターンは、上記複数の画像のうち上記元パターン中の任意の数のビットごとに共通した上記マスクパターンにより作成されたパターンであること、を特徴とする。
【0017】
また、本発明は画像認識方法に関するものであり、本発明の画像認識方法は、少なくとも記憶部と制御部を備えたコンピュータにおいて実行される画像認識方法であって、上記記憶部は、複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを、神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルに関する情報を記憶しており、上記制御部において実行される、指定された、手がかり画像である照合パターンを上記連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める想起手順と、上記想起手段により上記状態更新に伴って復号化された上記再構成パターンと、上記照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手順と、を含むことを特徴とする。
【0018】
また、本発明はプログラムに関するものであり、本発明のプログラムは、少なくとも記憶部と制御部を備えたコンピュータに実行させるためのプログラムであって、上記記憶部は、複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを、神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルに関する情報を記憶しており、上記制御部において実行される、指定された、手がかり画像である照合パターンを上記連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める想起手順と、上記想起手段により上記状態更新に伴って復号化された上記再構成パターンと、上記照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手順と、を実行させることを特徴とする。
【0019】
また、本発明は記録媒体に関するものであり、上記記載のプログラムを記録したことを特徴とする。
【発明の効果】
【0020】
この発明によれば、複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルにおいて、手がかり画像である照合パターンを連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める際に、状態更新に伴って復号化された再構成パターンと照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と同じ値を取り易いように制約する。これにより、連想記憶モデルにおいて、マスク化されたパターンが保存されている場合に、マスクパターンを用いずに、対応するパターンを取り出すことができるという効果を奏する。
【0021】
また、本発明は、想起段階において、焼き鈍し法により、状態更新に伴って温度を徐々に下げることによりニューラルネットワークの状態を収束させるので、エネルギー関数の値がローカルミニマムに陥らないように制御することができるという効果を奏する。
【0022】
また、本発明は、1回の上記状態更新ごとに、逆温度に増加率を乗ずることにより、指数関数的に温度を下げるので、焼き鈍し法において、最初のうちは、神経細胞ユニットに状態の変化をほどこしながら、徐々に温度を下げて収束させることができるという効果を奏する。
【0023】
また、本発明は、制約を加えるために、再構成パターンと照合パターン間の値の積の総和に応じて、ニューラルネットワークのエネルギー関数の値が小さくなる制約項を設定する。これにより、本発明は、再構成パターンと照合パターン間で値が一致するほどエネルギー関数が下がるようにバイアスをかけることができるという効果を奏する。
【0024】
また、本発明では、神経細胞ユニットの内部ポテンシャルは、制約項付きのエネルギー関数を当該神経細胞ユニットの状態で偏微分して符号を反転させたものであり、神経細胞ユニットの状態更新確率は、内部ポテンシャルと逆温度の積の符号を反転させたものを基数とした指数に1を加えたものを分母とし、1を分子とする分数で表され、想起段階で、1回の上記状態更新ごとに、状態更新確率を再計算する。これにより、温度の高いうちや、再構成パターンと照合パターン間で値が一致していないうちは、神経細胞ユニットの状態の変化を施しつつ、温度の徐々に下がり、再構成パターンと照合パターン間で値が一致してくると、一定の状態に収束するように施すことができるという効果を奏する。
【0025】
また、本発明は、初期状態でニューラルネットワークをランダムな値に設定し、同期的かつ確率的な更新則に従って、ニューラルネットワークの状態を更新するので、好適に対応するパターンを想起させることができるという効果を奏する。
【0026】
また、本発明では、マスクパターンは、ランダムな二値パターンであるので、擬似的に直交化された記憶容量の大きいニューラルネットワークから、照合パターンに対応するパターンを見出すことができるという効果を奏する。
【0027】
また、本発明は、被マスクパターンは、複数の画像の元パターン中の任意の数のビットごとに共通したマスクパターンにより作成されたパターンであるので、マスクパターンが増えることによる連結パターンの延長が抑えられた記憶容量の大きいニューラルネットワークから、照合パターンに対応するパターンを見出すことができるという効果を奏する。
【図面の簡単な説明】
【0028】
【図1】図1は、連想記憶モデルの記銘段階を模式的に示した図である。
【図2】図2は、連想記憶モデルの想起段階を模式的に示す図である。
【図3】図3は、互いに相関が小さいパターンを記憶させる場合を模式的に示した図である。
【図4】図4は、互いに相関が大きいパターンを記憶させる場合を模式的に示した図である。
【図5】図5は、元パターンとマスクパターンと被マスクパターンと連結パターンの関係を示す図である。
【図6】図6は、XNOR演算およびXOR演算の一例を示す図である。
【図7】図7は、連結パターンの一例を示す図である。
【図8】図8は、ブロック単位に異なるマスクパターンrを設定した連結パターンの一例を示す図である。
【図9】図9は、本実施の形態が適用される本画像認識装置100の一例を示すブロック図である。
【図10】図10は、本実施の形態における画像認識装置100の基本処理の一例を示すフローチャートである。
【図11】図11は、本実施の形態における画像認識装置100の想起処理の一例を示すフローチャートである。
【図12】図12は、本実施例によるマスク情報を用いずに画像想起を行った結果を示す図である。
【発明を実施するための形態】
【0029】
以下に、本発明にかかる画像認識装置、画像認識方法、および、プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。例えば、本実施の形態に示す連想記憶モデルに限らず、様々な連想記憶モデルに本発明を適用してもよい。また、以下の実施の形態では、同期的かつ確率論的な更新が行われる例について説明することがあるが、これに限られず、非同期的更新でも決定論的更新であってもよい。また、本実施の形態において、ニューラルネットワークの結合が疎の場合を例にして説明することがあるが、これに限られず、結合が密なニューラルネットワーク(例えば、全ての神経細胞ユニットが互いに結合しているネットワーク)を用いてもよい。また、以下の実施の形態においては、マスクパターンは、ランダムな二値パターンを例に説明することがあるが、これに限られず、任意のマスクパターンについて本実施の形態を適用することができる。

【0030】
[本実施の形態の背景]
以下、本発明の実施の形態の背景および概要について図1~図8を参照して説明し、その後、本実施の形態の構成および処理等について詳細に説明する。

【0031】
まず、本発明の実施の形態では、前提として、マスク化されたパターンが連想記憶モデルのニューラルネットワークに記憶されるので、まず、その背景について説明する。ここで、図1は、連想記憶モデルの記銘段階を模式的に示した図である。

【0032】
連想記憶モデルとは、神経回路網(ニューラルネットワーク)モデルの一種である。連想記憶モデルの一種である、ホップフィールド・ネットワークは、1982年にHopfieldによって提唱されたニューラルネットワークの一モデルである。一例として図1に示すように、神経細胞(ニューロン)ユニットが結合されたニューラルネットワークを構築しておき、神経細胞ユニット間で相互作用させる。神経細胞ユニット間の結合の強さは重み(結合係数)として表現され、学習により強度が増減する。

【0033】
図1では、ニューラルネットワークに、4つのパターンの二値画像を記憶させる記銘段階が模式的に示されている。自己連想記憶モデルの記銘段階では、複数の記憶パターンを記憶させて、想起段階では、その中から1つのパターンを想起させるものである。ネットワークにおける各神経細胞ユニットは、結合する他の神経細胞ユニットからの入力の総和によって、発火するか否かが決まる。自己連想記憶モデルにおける記憶パターンとは、神経細胞ユニットの活動状態(典型的には、発火状態と休止状態の二種類)の並び方のことである。ホップフィールドのモデルでは、記銘段階で、シナプス結合の重みを特定の学習則(Hebb則等)に従い定めることで、記憶パターンは、ニューラルネットワークに記憶される。また、想起段階で、ネットワークの状態を表すエネルギー関数が状態更新則に従って単調に減少し、極小値状態に至るまで繰り返し更新処理が実行される。図2は、連想記憶モデルの想起段階を模式的に示す図である。

【0034】
図2に示すように、自己連想記憶モデルの想起段階では、手がかりとなる照合パターンから、ニューラルネットワークに記憶された元のパターンを探索し、想起されたパターンを得る。より具体的には、記憶パターンを取り出す際には、まず、ニューラルネットワークに手がかりとなる初期パターンを与え、次に、ニューラルネットワークの状態を特定の規則に従い複数回更新することにより、所望の記憶パターンを得る。なお、手がかりパターンは、元のパターンそのものでなくともよく、求めたいパターンの一部を乱したものであってもよい。すなわち、自己連想記憶モデルでは、入力として与えた手がかりパターンと最も似ている記憶済みのパターンが得られる。

【0035】
ネットワークにおけるニューロンの数(神経細胞ユニット数)Nが増えるほど記憶できるパターン数は増えるが、パターン間の相関によって記憶できるパターンの数に限界がある。自己連想記憶モデルが覚えられるパターン数を記憶容量と呼ぶ。理論的な記憶容量の上限として、標準的な学習則や状態更新則を用いた場合には、ニューラルネットワークおよび記憶パターンの大きさNに対して、およそ0.14N程度であることが知られているが、実際には、記憶パターンの相関に大きく影響される。ここで、図3は、互いに相関が小さいパターンを記憶させる場合を、図4は、互いに相関が大きいパターンを記憶させる場合を模式的に示した図である。

【0036】
図3に示すように、記憶パターンがランダムなパターンであって、互いに相関が小さい場合は、理論的な限界に近い0.14Nの記憶容量が得られる。しかしながら、図4に示すように、互いに似通ったパターンを記憶させる場合、記憶パターン間に相関が大きいために、互いに干渉して、一般に記憶容量は著しく低下してしまう。

【0037】
従来、この記憶容量の低下の問題に対して、(1)擬似逆行列を用いたり逐次的に重みを調節したりすることによって学習則を改善する方法、(2)末尾にビットを足したりビットの一部を変更したりすることによってパターン自体に変更を加える方法等が提案されている。しかし、従来の手法はいずれも計算負荷が大きいため、神経回路網および記憶パターンの大きさNが大きい場合には適用することが困難であった。

【0038】
そこで、本願の発明者らが鋭意検討を行ったことにより新手法を開発するに至った。一例として、本願で用いる記銘の新手法は、(1)記憶パターン(元パターン)に対してマスクパターンを用意し、(2)記憶パターンとマスクパターンのXNOR演算またはXOR演算により被マスクパターンを生成し、(3)マスクパターンと被マスクパターンを連結した連結パターンを神経回路網に記憶させることを基本的な要素としている。このようにマスクパターンを用いて乱雑化することにより、記憶させるパターンを擬似的に直交化して、相関による記憶容量の低下を抑えることができる。ここで、図5は、元パターンとマスクパターンと被マスクパターンと連結パターンの関係を示す図である。

【0039】
二値の信号列を乱雑化する目的でXOR演算あるいはXNOR演算を行う。図5に示すように、原理としては、元の信号列(元パターン)と、それをマスクするための(擬似)乱数列(ランダムマスク)を用意し、両者のXOR演算ないしXNOR演算を行うことで、乱雑な信号列(被マスクパターン)が得られる。これにより、記憶パターンが乱雑化して相関が小さくなり、パターン間の干渉を低減して、記憶容量の低下を防ぐことができる。

【0040】
より具体的には、本発明の実施の形態では、(1)ランダムな二値パターン(ランダムマスク)のマスクパターンを生成する。なお、二値の出現確率は均等に1/2であることに限らず、多少のバイアスを加えてもよい。

【0041】
そして、本実施の形態は、(2)指定された複数の画像の元パターンとマスクパターンとの排他的論理和(XOR)または否定排他的論理和(XNOR)を求めることにより被マスクパターンを生成する。一例として、本実施の形態は、画像の一次元二値データを元パターンとして、同じまたは短い長さのランダムな二値データをマスクパターンとして、両データの対応する値同士の排他的論理和(XOR)または否定排他的論理和(XNOR)を求めることにより被マスクパターンを生成する。ここで、図6は、XNOR演算およびXOR演算の一例を示す図である。

【0042】
元パターン(Input1)とマスクパターン(Input2)が{0,1}の二値データを用いる場合、図6(a)に示すXNOR演算を行い、被マスクパターンの値(Output)を得る。なお、二値データは、いずれの2つの値であってもよく、一例として、元パターン(Original)とマスクパターン(Mask)が{1,-1}の二値データを用いる場合、図6(b)に示すXNOR演算を行い、被マスクパターンの値(Masked)を得てもよい。この場合のXNOR演算は、元パターンrとマスクパターンξを掛け合わせたものr×ξに相当する。

【0043】
一方のXOR演算では、元パターン(Input1)とマスクパターン(Input2)が{0,1}の二値データを用いる場合、図6(c)に示すXOR演算を行い、被マスクパターンの値(Output)を得る。この場合も、二値データは、いずれの2つの値であってもよく、一例として、元パターン(Original)とマスクパターン(Mask)が{1,-1}の二値データを用いる場合、図6(d)に示すXOR演算を行い、被マスクパターンの値(Masked)を得てもよい。この場合のXOR演算は、元パターンrとマスクパターンξを掛け合わせ符号を入れ替えたもの-r×ξに相当する。

【0044】
つづいて、記銘段階では、本実施の形態は、(3)マスクパターンに対応付けた被マスクパターンを連結パターンとして、ニューラルネットワークを用いた連想記憶モデルにて学習させる。なお、連結パターン中のビットの並べ方は、いずれの順序であってもよい。また、連結パターンは、元パターンの情報を完全に保持している。なぜなら、マスクパターンと被マスクパターンのペアに対して再度、同じ論理演算(XNOR/XOR)を行うと、元のパターンが復元できるからである。ここで、図7は、連結パターンの一例を示す図である。

【0045】
一例として図7に示すように、本実施の形態では、一つ一つの元パターンξに対して異なるマスクパターンrを用いてXOR/XNOR演算を行った被マスクパターンrξと、マスクパターンrを交互に並べて連結パターンとして記銘させてもよい(kはブロック番号)。この場合、元パターンの長さがNとすると、2Nの長さの連結パターンが生成されることとなる。そのため、必要なニューロン数(神経細胞ユニット数)は倍増する。

【0046】
そこで、複数の元パターンをブロック単位で区切って、ブロック単位ごとに異なるマスクパターン(ランダムマスク等)を設定して、連結パターンの長さを抑えてもよい。すなわち、マスクパターンのビット数を元パターンよりも少なく用意し、同一の要素(マスク)を複数回のXNOR演算に続けて使用することで、連結パターンの長さを2Nより短くしてもよい。ここで、図8は、ブロック単位に異なるマスクパターンrを設定した連結パターンの一例を示す図である。図8に示すように、本実施の形態は、複数の画像の元パターンを、先頭からL-1個ずつのブロック単位(マスクパターンを入れて長さLのブロック)に区切り、ブロック毎に値が異なるマスクパターンを設定して、LN/(L-1)の長さの連結パターンを生成してもよい。図7の場合は、必要なニューロン数(神経細胞ユニット数)が2倍となるが、図8に示すようにブロック長をLとすることによりL/(L-1)倍に抑えられる。

【0047】
[本実施の形態の概要]
本実施の形態では、一例として以上のようにマスク化された連結パターンが連想記憶モデルのニューラルネットワークに記憶されていることを前提として、そのニューラルネットワークから、マスクパターンを用いずに、対応するパターンを取り出すことを目的とする。記銘段階に続く想起段階では、通常、手がかりとなる入力パターンから、ニューラルネットワークに記憶された元のパターンを探索し、想起されたパターンを得るが、本実施の形態を適用した場合には、照合パターンに対応するマスクパターンが未知である。

【0048】
そのため、本実施の形態は、手がかり画像である照合パターンを連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める。

【0049】
その際、本実施の形態は、状態更新に伴って復号化された再構成パターンと照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と異なる値を取り易いように制約を加える。この制約により、最初のうちはランダムだった神経細胞ユニットの状態が、一致する部分に対応する神経細胞ユニットでは同じ状態に留まりやすいので、状態更新に従って徐々に未知のマスクパターンを反映した状態に近づいていくことになる。

【0050】
すなわち、本実施の形態は、ランダムなニューラルネットワークの初期状態が、徐々にマスクパターンを反映した状態に最適化される。ただし、最適化が適切でなければ、真のマスクパターンを反映したグローバルミニマムには至らずに、ローカルミニマムに陥ってしまう場合がある。

【0051】
ここで、本実施の形態は、最適化手法として、焼き鈍し法(シミュレーテッド・アニーリング法)を用いてもよい。より具体的には、本実施の形態は、焼き鈍し法により、状態更新に伴って温度を徐々に下げることにより、ニューラルネットワークの状態を収束させて、エネルギー関数の値がローカルミニマムに陥らないように制御してもよい。その際、以下の数式で示すように、1回の上記状態更新ごとに、逆温度に増加率を乗ずることにより、指数関数的に温度を下げてもよい。
β(t+1)=γβ(t)
(ここで、tは状態更新に伴う時刻、β(t)は時刻tにおける逆温度、γは増加率であり1より大きな値を取る。)

【0052】
また、本実施の形態は、上述した制約を加えるために、以下の数式で示すように、再構成パターンと照合パターン間の値の積の総和に応じて、ニューラルネットワークのエネルギー関数の値が小さくなる制約項を設定してもよい。
【数1】
JP2015095042A_000003t.gif
(ここで、エネルギー関数Eの第1項は、通常のエネルギー関数の項であり、第2項は、本実施の形態にて追加された制約項である。Jijは、j番目の神経細胞ユニットからi番目の神経細胞ユニットへのシナプス結合の強度を表し、x(t)は、時刻tにおけるi番目の神経細胞ユニットの状態である。また、sは、制約項の強度を表すパラメータであり、zは、手がかりとなる照合パターンの値、yは、再構成パターンの値である。)

【0053】
また、本実施の形態は、神経細胞ユニットの内部ポテンシャルh(t)として、以下の数式に示すように、制約項付きのエネルギー関数Eを、当該神経細胞ユニットの状態xで偏微分して符号を反転させたものを設定してもよい。
【数2】
JP2015095042A_000004t.gif

【0054】
また、本実施の形態は、神経細胞ユニットの状態更新確率Prob(x(t+1)=1)は、以下の数式に示すように、内部ポテンシャルh(t)と逆温度の積の符号を反転させたものを基数とした指数に1を加えたものを分母とし、1を分子とする分数であってもよい。
【数3】
JP2015095042A_000005t.gif

【0055】
一例として、本実施の形態は、上述した状態更新確率を、1回の状態更新ごとに再計算して、再計算した確率に従って神経細胞ユニットの状態を更新する。これにより、温度が高い初期の段階や、再構成パターンと照合パターン間で値が一致していない段階では、対応する神経細胞ユニットの状態の変化が施される結果となり、一方で、温度が徐々に下がってゆき、再構成パターンと照合パターン間で値が一致してくると、各神経細胞ユニットの状態は一定の状態に収束するように施される。

【0056】
以上が本実施の形態の概要である。

【0057】
[画像認識装置の構成]
次に、本画像認識装置の構成について図9を参照して説明する。図9は、本実施の形態が適用される本画像認識装置100の一例を示すブロック図であり、該構成のうち本実施の形態に関係する部分のみを概念的に示している。

【0058】
図9に示すように、本実施の形態における画像認識装置100は、概略的に、制御部102と記憶部106を少なくとも備え、本実施の形態において、更に、入出力制御インターフェース部108と通信制御インターフェース部104を備える。ここで、制御部102は、画像認識装置100の全体を統括的に制御するCPU等である。また、通信制御インターフェース部104は、通信回線等に接続されるルータ等の通信装置(図示せず)に接続されるインターフェースであり、入出力制御インターフェース部108は、入力部112や出力部114に接続されるインターフェースである。また、記憶部106は、各種のデータベースやテーブルなどを格納する装置である。これら画像認識装置100の各部は任意の通信路を介して通信可能に接続されている。更に、この画像認識装置100は、ルータ等の通信装置および専用線等の有線または無線の通信回線を介して、ネットワーク300に通信可能に接続されている。

【0059】
記憶部106に格納される各種のデータベースやテーブル(ニューロンファイル106b等)は、固定ディスク装置等のストレージ手段である。例えば、記憶部106は、各種処理に用いる各種のプログラム、テーブル、ファイル、データベース、および、ウェブページ等を格納する。

【0060】
これら記憶部106の各構成要素のうち、ニューロンファイル106bは、神経細胞ユニットを識別するインデックスに対応付けて、神経細胞ユニット間のパラメータや神経細胞ユニット毎のパラメータ(係数値等)などニューラルネットワークに関するデータを記憶する神経回路網記憶手段である。一例として、ニューロンファイル106bに記憶されるニューラルネットワークの情報は、神経細胞ユニットiと神経細胞ユニットjの間における重みJij、時刻t(t=1,2,3,...)における、神経回路網の状態x(t)、再構成パターンy(t)、エネルギー関数E(t)、神経細胞ユニットの内部ポテンシャルh(t)等の値である。なお、ニューロンファイル106bには、予めこれらパラメータのt=0の場合で数値が与えられていない場合、初期パラメータが記憶されてもよい。後述する学習部102cおよび想起部102dにより状態更新(t→t+1)が行われる毎に、上述の値が更新されてもよい。

【0061】
また、入出力制御インターフェース部108は、入力部112や出力部114の制御を行う。ここで、出力部114としては、モニタ(家庭用テレビを含む)の他、スピーカを用いることができる(なお、以下においては出力部114をモニタとして記載する場合がある)。また、入力部112としては、キーボード、マウス、およびマイク等を用いることができる。

【0062】
また、図9において、制御部102は、OS(Operating System)等の制御プログラムや、各種の処理手順等を規定したプログラム、および、所要データを格納するための内部メモリを有する。そして、制御部102は、これらのプログラム等により、種々の処理を実行するための情報処理を行う。制御部102は、機能概念的に、マスク生成部102a、論理演算部102b、学習部102c、想起部102d、および、比較部102eを備える。

【0063】
このうち、マスク生成部102aは、マスクパターンを生成するマスク生成手段である。本実施の形態において、マスク生成部102aは、ランダムな二値パターンであるマスクパターンを生成する。一例として、マスク生成部102aは、乱数表等を用いて、乱数列rμ(μ=1,2,・・・,P)を生成してもよい。なお、発生させる二値(例えば、1と-1)の出現確率Prob(rμ=±1)は、均等に1/2であることに限らず、多少のバイアス(バイアスパラメータa)を加えて(1±a)/2としてもよい。

【0064】
また、論理演算部102bは、マスク生成部102aにより生成されたマスクパターン(ランダムマスク等)と、元パターンとの論理演算(XNOR/XOR)を行うことにより被マスクパターンを生成する論理演算手段である。例えば、論理演算部102bは、図6を用いて上述したようにXNOR演算またはXOR演算を行う。

【0065】
ここで、論理演算部102bは、複数の画像の元パターン中の任意の数のビットごとにブロック化して、ブロック単位で共通したマスクパターン(ランダムマスク等)を設定して、被マスクパターンを作成してもよい。より具体的には、論理演算部102bは、複数の画像による長さNの元パターンを、先頭からL-1個ずつのブロック単位に区切り(ただし、NはL-1で割り切れるものとする。)、ブロック毎に値が異なるマスクパターンを設定して、LN/(L-1)の長さの連結パターンを生成してもよい。

【0066】
また、学習部102cは、ニューラルネットワークを用いた連想記憶モデルにて連結パターンを学習させる学習手段である。

【0067】
また、想起部102dは、ニューラルネットワークを用いた連想記憶モデルにて手がかりとなる照合パターンからパターンを再構成する想起手段である。より具体的には、想起部102は、手がかり画像である照合パターンを連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める。ここで、想起部102dは、比較部102eにより設定される各神経細胞ユニットの状態更新の制約を受けながらニューラルネットワークの状態更新を行う。

【0068】
ここで、想起部102dは、未知のマスクパターンを判定した状態に導くために、焼き鈍し法を用いてニューラルネットワークを収束させてもよい。例えば、想起部102dは、状態更新に伴って温度を徐々に下げることによりニューラルネットワークの状態を収束させて、エネルギー関数の値がローカルミニマムに陥らないように制御してもよい。ここで、想起部102dは、1回の上記状態更新ごとに、逆温度に増加率を乗ずることにより、指数関数的に温度を下げてもよい。なお、想起部102dは、対数関数的に温度を下げてもよい。例えば、想起部102dは、同期更新の代わりに非同期更新を行い、対数関数的に温度を下げることで、グローバルミニマムに導き易くしてもよい。

【0069】
また、比較部102eは、想起部102dにより状態更新に伴って復号化された再構成パターンと照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手段である。

【0070】
ここで、数式による説明を行う。記憶させる元のパターンを{ξμ,ξμ,...,ξμ}と表す。μはパターン番号で、1からPまでの整数値を取る。ξμは、μ番目の元パターンのi番目の値を表し、本実施の形態では1か-1のいずれかの値を取る。これに対し、マスクパターンは、{rμ,rμ,...,rμ}と表す。本実施の形態において、rμは、μ番目のマスクパターンのi番目の値を示し、ランダムに1か-1の値を取る。記憶パターンのある値ξμと、それに対応するマスクパターンの値rμとの間で、XNOR演算をした結果はξμμとなる(XOR演算の場合は-ξμμ)。

【0071】
ブロック長L=2の場合、マスクパターン{rμ,rμ,...,rμ}と被マスクパターン{ξμμ,ξμμ,...,ξμμ}から1つずつ交互の取ってきて繋げたもの{rμ,ξμμ,rμ,ξμμ,...,rμ,ξμμ}が、学習部102cの制御によりニューラルネットワークに記憶させる長さ2Nの連結パターンである。ここで、記号を置き換えて、連結パターン{ημ,ημ,...,ημN´}と表す。ただし、N´=2Nである。

【0072】
ブロック長L=2以上の場合、μ番目の元パターンのk番目のブロックを{ξμk,1,ξμk,2,...,ξμk,L-1}と表す。これに対応するマスクパターンの値をrμとし、論理演算(XNOR/XOR)および連結操作を行うことで、長さLのブロック{rμ,rμξμk,1,rμξμk,2,...,rμξμk,L-1}を得る。これをブロック順に並べたものを連結パターンとしてもよい。この場合、N´=LN/(L-1)となる。なお、上記の連結パターンの並び順は一例であり、連結パターンにおいて被マスクパターンとマスクパターンの並び順は任意である。

【0073】
学習部102cによる連結パターンの学習には、一例として、標準的なヘブ学習則を用いてもよい。自己連想記憶モデルの場合、j番目の神経細胞ユニットからi番目の神経細胞ユニットへのシナプス結合の強度をJijと表し、i≠jの場合について、学習部102cは、以下の式に従い値を定める。なお、i=jの場合は、Jii=0とする。
【数4】
JP2015095042A_000006t.gif

【0074】
ニューラルネットワークの時刻tにおける状態を{x(t),x(t),...,xN´(t)}と表す。x(t)は、i番目の神経細胞ユニットの活動状態を表し、1(発火状態)か-1(休止状態)のいずれかの値を取る。ニューラルネットワークの状態更新には、同期更新と非同期更新、決定論的更新と確率的更新のそれぞれの組み合わせにより、4通りが考えられるが、いずれの組み合せを採用してもよい。

【0075】
本実施の形態において、想起部102dは、ニューラルネットワークの状態更新時に、比較部102eの処理により、ニューラルネットワークの状態を復号した再構成パターンと、手がかり画像である照合パターンとがなるべく一致するような制約項を加えつつ、焼き鈍し法により、ニューラルネットワークの状態を徐々に収束させて想起を行ってもよい。

【0076】
ここで、本実施の形態の制約項は、比較部102eによる再構成パターンと照合パターン間の比較結果を反映するものであり、値が一致している部分に関しては、対応する神経細胞ユニットに「次の更新時に、現在の状態と同じ値を取りやすい」ように制約を加え、値が一致していない部分に関しては、対応する神経細胞ユニットに「次の更新時に、現在の状態とは異なる値を取りやすい」ように制約を加える項である。この制約項により、再構成パターンと照合パターンとが一致しやすくなる。

【0077】
また、本実施の形態において、想起部102dは、一例として、以下の焼き鈍し法を用いてもよい。まず、想起部102dは、ニューラルネットワークの初期状態をランダムな値に設定し、逆温度パラメータβに初期値を定める。つづいて、想起部102dは、同期的-確率的更新則に従ってニューラルネットワークの状態を1ステップ分更新する。その後、想起部102dは、比較部102eによる比較結果を反映した制約項を再計算し、逆温度パラメータβを増加させて、再びニューラルネットワークの状態更新を行う。想起部102dは、以上の処理を所定のステップ数繰り返し、最後に得られた再構成パターンを出力部114等に出力してもよい。ここで、数式について整理すると以下のようになる。
・元パターン(長さN):{ξμ,ξμ,...,ξμ}(μ=1,2,...,P)
・マスクパターン(長さN):{rμ,rμ,...,rμ}(μ=1,2,...,P)
・被マスクパターン(長さN):{ξμμ,ξμμ,...,ξμμ}(μ=1,2,...,P)
・連結パターン(長さ2N):{ημ,ημ,...,ημ2N}(μ=1,2,...,P)
・照合パターン(長さN):{z,z,...,z
・ニューラルネットワークの状態:{x(t),x(t),...,x2N(t)}(t=0,1,2,...)
・再構成パターン(長さN):{y(t),y(t),...,y(t)}(t=0,1,2,...)

【0078】
一例として、想起部102dは、以下の数式を用いて、状態更新ごとに比較部102eによる比較結果を反映した、制約項付きのエネルギー関数Eの値を求めてもよい。
【数5】
JP2015095042A_000007t.gif

【0079】
また、一例として、想起部102dは、以下の数式を用いて、ニューラルネットワークの各神経細胞ユニットの内部ポテンシャルh(t)を求めてもよい。
【数6】
JP2015095042A_000008t.gif

【0080】
また、一例として、想起部102dは、以下の数式を用いて、ニューラルネットワークの各神経細胞ユニットの状態更新確率Prob(x(t+1)=1)を求めてもよい。
【数7】
JP2015095042A_000009t.gif
ここで、想起部102dは、状態更新(t→t+1)のたびに、増加率βにて逆温度βを再設定する(すなわち、β(t+1)=γβ(t))。

【0081】
以上のように、一例として、想起部102dは、1回の状態更新ごとに、比較部102eによる比較結果を反映した制約項付きエネルギー関数Eによる内部ポテンシャルh(t)と逆温度β(t)を再計算し、それらによって定められる各神経細胞ユニットの状態更新確率を再計算する。この逐次更新される各神経細胞ユニットの状態更新確率により、逆温度βが低い初期条件や、再構成パターンと照合パターン間で値が一致していない部分では、対応する神経細胞ユニットの状態更新確率は高いので、当該神経細胞ユニットの状態x(t)の変化(0⇔1)が施される。一方、逆温度β(t)が指数関数的(γt-1)に上昇して、再構成パターンと照合パターン間で値が一致してくると、対応する神経細胞ユニットの状態更新確率は低くなり、当該神経細胞ユニットの状態は一定の安定状態に落ちつき、ニューラルネットワーク全体が収束するようになる。

【0082】
一方、想起部102dは、所定のステップ数の状態更新を行うと収束したとみなして、そのときの状態を復号化した再構成パターンを出力部114等に出力する。なお、閾値以下のエネルギー関数の値を得られない場合は、想起が失敗したとして、逆温度の増加率γの値を下げるなど再設定を行った上で、再度、初期状態から想起処理を繰返してもよい。なお、想起部102dは、以下の式を用いて、ニューラルネットワークの状態を復号してもよい。なお、再構成パターンを{y(t),y(t),...,y(t)}と表す。
(t)=x2k-1(t)x2k(t)

【0083】
以上が、本実施の形態における画像認識装置100の構成の一例である。なお、画像認識装置100は、ネットワーク300を介して外部システム200に接続されてもよい。この場合、通信制御インターフェース部104は、画像認識装置100とネットワーク300(またはルータ等の通信装置)との間における通信制御を行う。すなわち、通信制御インターフェース部104は、他の端末と通信回線を介してデータを通信する機能を有する。また、ネットワーク300は、画像認識装置100と外部システム200とを相互に接続する機能を有し、例えば、インターネット等である。

【0084】
また、外部システム200は、ネットワーク300を介して、画像認識装置100と相互に接続され、各種パラメータに関する外部データベースや、接続されたコンピュータ(情報処理装置)に画像認識方法を実行させるためのプログラム等を提供する機能を有する。

【0085】
ここで、外部システム200は、WEBサーバやASPサーバ等として構成していてもよい。また、外部システム200のハードウェア構成は、一般に市販されるワークステーション、パーソナルコンピュータ等の情報処理装置およびその付属装置により構成していてもよい。また、外部システム200の各機能は、外部システム200のハードウェア構成中のCPU、ディスク装置、メモリ装置、入力装置、出力装置、通信制御装置等およびそれらを制御するプログラム等により実現される。

【0086】
以上で、本実施の形態の構成の説明を終える。

【0087】
[画像認識装置100の処理]
次に、このように構成された本実施の形態における画像認識装置100の処理の一例について、以下に図10を参照して詳細に説明する。図10は、本実施の形態における画像認識装置100の基本処理の一例を示すフローチャートである。

【0088】
図10に示すように、まず、マスク生成部102aは、ランダムな二値パターンであるランダムマスクを生成する(ステップSA-1)。一例として、マスク生成部102aは、乱数表等を用いて、乱数列rμ(μ=1,2,・・・,P)を生成してもよい。

【0089】
そして、論理演算部102bは、マスク生成部102aにより生成されたマスクパターン(ランダムマスク)と元パターンとの論理演算(XNOR演算またはXOR演算)を行うことにより被マスクパターンを生成する(ステップSA-2)。

【0090】
そして、学習部102cは、ニューラルネットワークを用いた連想記憶モデルにて連結パターンを学習させる(ステップSA-3)。

【0091】
そして、想起部102dは、手がかり画像である照合パターンを連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ、状態更新を繰り返すことにより、想起結果の再構成パターンを求める(ステップSA-4)。その際、想起部102dは、比較部102eにより状態更新ごとに設定される各神経細胞ユニットの状態更新の制約を受けながらニューラルネットワークの状態更新を行う。すなわち、比較部102eは、想起部102dにより状態更新に伴って復号化された再構成パターンと照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と異なる値を取り易いように制約を加える。所定のステップ数の状態更新を行うと、想起部102dは、そのときの状態を復号化した再構成パターンを出力部114等に出力して処理を終了する。

【0092】
以上が、本実施形態における画像認識装置100の基本処理の一例である。

【0093】
[想起処理]
つぎに、画像認識装置100の基本処理の一部を具体化した想起処理の一例について以下に図11を参照して説明する。図11は、本実施の形態における画像認識装置100の想起処理の一例を示すフローチャートである。

【0094】
図11に示すように、想起部102dは、利用者に入力部112等を介して、手がかりとなる画像データである照合パターンを入力させるよう制御する(ステップSA-41)。このほか、想起部102dは、利用者に入力部112等を介して、冷却率γ、初期逆温度β0、状態更新させるステップ数Tを設定させてもよい。

【0095】
そして、想起部102dは、ニューラルネットワークを初期化し、時刻tに1を代入するとともに、逆温度βにβ0を代入する(ステップSA-42)。

【0096】
そして、想起部102dは、ニューラルネットワークの状態を復号化して、出力として再構成パターンを計算する(ステップSA-43)。

【0097】
そして、比較部102eは、入力された照合パターンと、出力された再構成パターンを比較して、制約項を計算する(ステップSA-44)。

【0098】
そして、想起部102dは、比較部102eにより計算された制約項を含むエネルギー関数の値E(t)と逆温度β(t)に従って、各神経細胞ユニットの状態更新確率Prob(x(t+1)=1)を求め、その確率に従ってニューラルネットワークを更新する(ステップSA-45)。

【0099】
そして、想起部102dは、更新したステップ数である時刻tが、所定のステップ数Tに到達したか否かを判定する(ステップSA-46)。

【0100】
所定のステップ数Tに到達していない場合は(ステップSA-46,No)、想起部102dは、tをインクリメント(t→t+1)し、逆温度β(t)にγを乗じてβ(t+1)を設定し(ステップSA-47)、上述したステップSA-43~SA-46の処理を繰返す。

【0101】
一方、所定のステップ数Tに達した場合は(ステップSA-46,Yes)、想起部102dは、そのときのニューラルネットワークの状態を復号化して再構成パターンを取得し出力部114に出力し、想起処理を終える(ステップSA-48)。

【0102】
[実施例]
つづいて、上述した実施の形態を適用して、マスク情報を用いずに画像想起を行った実施例について、以下に図12を参照して説明する。図12は、本実施例によるマスク情報を用いずに画像想起を行った結果を示す図である。

【0103】
本実施例では、上述した本実施の形態による制約付き焼き鈍し法を用いた。本実施例で用いた記憶画像は、公開画像データベースのUSC-SIPI image databaseの中から選んだ4枚の画像(Lena, Mandrill, Peppers, Tree)である。これらの画像は24ビットRGBで表現されており、画像のサイズを縦64ピクセル、横64ピクセルに縮小した後、二値データに変換して使用した。二値データの長さはN=98304ビットであった。

【0104】
これらの元データをブロック長L=2で連結パターンに変換し、結合が疎な自己連想記憶モデルに記憶した。各神経細胞ユニットが受け取る結合数は一律にK=1500とし、結合元は神経細胞ユニット毎にランダムに定めた。また、結合重みを正規化するために学習則を一部変更し、通常の式では神経細胞ユニット数N´で割るところを、代わりにKで割った。

【0105】
数値計算の条件は、制約の強さがs=0.7、逆温度の初期値がβ(0)=1.0、逆温度の増幅率がγ=1.05と設定した。神経回路網の初期状態は、ランダムな状態を用いた。手掛かりパターンとして、4種類の完全な記憶データ(図12の第1列の上から4つの画像)と、2種類のノイズ有りデータ(同第1列の下から2つの画像)を用いた。ノイズ有りデータは、一つはLena画像に対応する二値データに対しランダムに10%のビットを反転して作成し、もう一つはLena画像の左20%を黒で塗りつぶした画像を二値データ化して作成した。両者は元データからの反転ビット数がほぼ同じである。

【0106】
以上の条件で制約付き焼き鈍し法により状態更新を行ったところ、いずれも50ステップ以内に対応する画像出力が得られた。状態更新が確率的であるので結果は試行毎に変わる可能性があるが、制約付き焼き鈍し法を繰り返し試してみたところ、ほとんどの場合で正しい画像が出力された。特に、手掛かりパターンがノイズ有りの場合でも、対応するLena画像を想起することが出来た。以上より、提案する制約付き焼き鈍し法によって、マスク情報無しに手掛かりパターンから対応する記憶パターンを正しく取り出せることが示された。なお、本実施例では、実際にはカラー画像を用いてカラーの再構成画像を得られたが、電子出願の様式上、図12では白黒で表示している。本実施例の結果得られたカラー画像については、公表論文を参照することができる(Makito Oku, Takaki Makino, and Kazuyuki Aihara, “Pseudo-Orthogonalization of Memory Patterns for Associative Memory” Neural Networks and Learning Systems, IEEE Transactions, 2013, Volume:24 , Issue: 11, pp.1877-1887)。

【0107】
以上で、本実施の形態の説明を終える。

【0108】
[他の実施の形態]
さて、これまで本発明の実施の形態について説明したが、本発明は、上述した実施の形態以外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実施の形態にて実施されてよいものである。

【0109】
また、画像認識装置100がスタンドアローンの形態で処理を行う場合を一例に説明したが、画像認識装置100は、クライアント端末からの要求に応じて処理を行い、その処理結果を当該クライアント端末に返却するようにしてもよい。

【0110】
また、実施の形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。

【0111】
このほか、上記文献中や図面中で示した処理手順、制御手順、具体的名称、各処理の登録データや検索条件等のパラメータを含む情報、画面例、データベース構成については、特記する場合を除いて任意に変更することができる。

【0112】
また、画像認識装置100に関して、図示の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。

【0113】
例えば、画像認識装置100の各装置が備える処理機能、特に制御部102にて行われる各処理機能については、その全部または任意の一部を、CPU(Central Processing Unit)および当該CPUにて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジックによるハードウェアとして実現してもよい。なお、プログラムは、後述する記録媒体に記録されており、必要に応じて画像認識装置100に機械的に読み取られる。すなわち、ROMまたはHDなどの記憶部106などには、OS(Operating System)として協働してCPUに命令を与え、各種処理を行うためのコンピュータプログラムが記録されている。このコンピュータプログラムは、RAMにロードされることによって実行され、CPUと協働して制御部を構成する。

【0114】
また、このコンピュータプログラムは、画像認識装置100に対して任意のネットワーク300を介して接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。

【0115】
また、本発明に係るプログラムを、コンピュータ読み取り可能な記録媒体に格納してもよく、また、プログラム製品として構成することもできる。ここで、この「記録媒体」とは、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD-ROM、MO、DVD、および、Blu-ray Disc等の任意の「可搬用の物理媒体」を含むものとする。

【0116】
また、「プログラム」とは、任意の言語や記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。なお、「プログラム」は必ずしも単一的に構成されるものに限られず、複数のモジュールやライブラリとして分散構成されるものや、OS(Operating System)に代表される別個のプログラムと協働してその機能を達成するものをも含む。なお、実施の形態に示した各装置において記録媒体を読み取るための具体的な構成、読み取り手順、あるいは、読み取り後のインストール手順等については、周知の構成や手順を用いることができる。

【0117】
記憶部106に格納される各種のデータベース等(ニューロンファイル106b等)は、RAM、ROM等のメモリ装置、ハードディスク等の固定ディスク装置、フレキシブルディスク、および、光ディスク等のストレージ手段であり、各種処理やウェブサイト提供に用いる各種のプログラム、テーブル、データベース、および、ウェブページ用ファイル等を格納する。

【0118】
また、画像認識装置100は、既知のパーソナルコンピュータ、ワークステーション等の情報処理装置として構成してもよく、また、該情報処理装置に任意の周辺装置を接続して構成してもよい。また、画像認識装置100は、該情報処理装置に本発明の方法を実現させるソフトウェア(プログラム、データ等を含む)を実装することにより実現してもよい。

【0119】
更に、装置の分散・統合の具体的形態は図示するものに限られず、その全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。すなわち、上述した実施形態を任意に組み合わせて実施してもよく、実施形態を選択的に実施してもよい。
【産業上の利用可能性】
【0120】
以上詳述に説明したように、本発明によれば、マスク化されたパターンが保存された連想記憶モデルのニューラルネットワークにおいて、マスクパターンを用いずに、対応するパターンを取り出すことができる、画像認識装置、画像認識方法、および、プログラムを提供することができ、特に画像認識や画像処理などの様々な分野において極めて有用である。
【符号の説明】
【0121】
100 画像認識装置
102 制御部
102a マスク生成部
102b 論理演算部
102c 学習部
102d 想起部
102e 比較部
104 通信制御インターフェース部
106 記憶部
106b ニューロンファイル
108 入出力制御インターフェース部
112 入力部
114 出力部
200 外部システム
300 ネットワーク
図面
【図1】
0
【図2】
1
【図3】
2
【図4】
3
【図5】
4
【図6】
5
【図7】
6
【図8】
7
【図9】
8
【図10】
9
【図11】
10
【図12】
11