Top > Search of Japanese Patents > SELF-ORGANIZING LEARNING PROCESSING METHOD FOR INFORMATION ABOUT POSITION AND DIRECTION OF ROBOT, LEARNING PROCESSING SYSTEM THEREFOR AND LEARNING PROGRAM THEREFOR

SELF-ORGANIZING LEARNING PROCESSING METHOD FOR INFORMATION ABOUT POSITION AND DIRECTION OF ROBOT, LEARNING PROCESSING SYSTEM THEREFOR AND LEARNING PROGRAM THEREFOR commons

Patent code P140010741
File No. 03-154
Posted date Jul 7, 2014
Application number P2003-414118
Publication number P2005-174040A
Patent number P3826197
Date of filing Dec 12, 2003
Date of publication of application Jun 30, 2005
Date of registration Jul 14, 2006
Inventor
  • (In Japanese)伊達 章
  • (In Japanese)倉田 耕治
Applicant
  • (In Japanese)国立研究開発法人情報通信研究機構
Title SELF-ORGANIZING LEARNING PROCESSING METHOD FOR INFORMATION ABOUT POSITION AND DIRECTION OF ROBOT, LEARNING PROCESSING SYSTEM THEREFOR AND LEARNING PROGRAM THEREFOR commons
Abstract PROBLEM TO BE SOLVED: To provide a processing method or the like for performing learning by a self-organizing model so as to separate and extract information about a position and a direction of a robot from visual information about the robot.
SOLUTION: A visual input information acquisition part 11 inputs visual input information about the robot. A position and direction learning part 15 performs order learning by use of an element face (a neural gas) corresponding to a position of a direct product model of an SOM and the neural gas, combines two learning algorithms each wherein neighborhood learning is performed by use of a circular element column (the SOM) corresponding to the direction, and learns selectivity of the position and the direction of each the element.
Outline of related art and contending technology (In Japanese)

外界の構造を自己組織的に獲得するメカニズムは、生物の研究においてもロボットの研究にとっても興味深いものである。人間は、普段、見慣れた場所であれば自分がどこにいて、どこを向いているかをわかっている。これは、人間が繰り返し与えられた視覚情報を学習した成果である。

視覚情報から自己の位置や自己が見ている方向(向き)を自己組織的に獲得する能力については様々な研究が行われている。特にラットの脳の海馬には、ある特定の場所にきたときに選択的に反応する「場所細胞」と呼ばれる神経細胞が存在することが知られている。

また、移動可能なロボットの誘導や行動生成のためには環境地図が有用であると考えられ、センサ情報から外界の構造を抽出する様々な手法が提案されている。ロボットが部屋の中の動き回る状況を考えてみると、ロボットの周囲の画像など視覚センサから入力される情報は、ロボットの位置と向きに依存して決まる。

図13に、移動可能なロボットが置かれたある部屋の平面図の例を示す。また図14に、図13に示す部屋に置いたロボットの視覚センサから入力されたロボット周囲の画像例を示す。図14(A)~(E)は、それぞれ、ロボットが図13の平面図に示す(A)~(E)の位置および矢印の向きに位置する場合に、ロボットの視覚センサから入力される周囲の画像(視覚画像)例である。

図14(A)および(B)は、ロボットの向きが同じで位置のみが異なる画像例であり、図14(C)~(E)は、ロボットの位置が同じで向きのみが異なる画像例である。これらの画像から、同一方向で位置のみが異なる場合の視覚画像では、入力される範囲の広狭はあるが範囲そのものはあまり変わらず、一方で、同一位置で方向のみが異なる場合の視覚画像では、入力される範囲が大きく変化することがわかる。

このような視覚入力情報だけを使用してロボットの位置や向きを知るためには、入力画像という高次元の情報から部屋での位置(2次元)および向き(1次元)という2つの情報を分離する必要がある。

コホネンの自己組織化マップ(SOM:Self-Organizing Map)は、このような高次元のデータを要約し重要な変数を抽出することに利用できる。SOMは、例えば2次元に配列された素子からなり、大脳皮質の感覚野に見られる機能地図がある種の学習アルゴリズムにより形成されていくさまを説明する数理モデルである(例えば、非特許文献1参照)。SOMは、入力信号空間中で隣接する領域がSOM上でも隣接する素子に表現されるという特徴がある。なお、SOMの配列が2次元であることは本質的ではなく、必要に応じて1次元や3次元の配列を考えることができる。

一方、様々な位相構造を持つ入力信号に対応できる自己組織化モデルとしてニューラルガスが知られている(非特許文献2参照)。

図15に、SOMによる自己組織化およびニューラルガスによる自己組織化を説明するための図を示す。

SOMの各素子は、参照ベクトルmと呼ばれるn次元ベクトルを持つ。以下では、i番目の素子の参照ベクトルをmi とする。参照ベクトルmi の次元は、SOMに与えられる入力信号xの次元と同一である。

SOM1: 参照ベクトルmi (i=1,…,n)の初期値を設定する。nはSOMの素子数である。

SOM2: 入力信号(入力ベクトル)xを生成する。

SOM3: すべての素子の中で入力信号xに最も近い参照ベクトルmi を持つ素子(以後、勝者cと呼ぶ)
c=argmini ∥mi -x∥ 式(1)
を求める。

SOM4: 以下の式(2) および式(3) にしたがい参照ベクトルmi (i=1,…,n)の学習を行う。

mi =mi + αhci(x-mi ) 式(2)
hci=exp-∥rc -ri 2 /2σ2 式(3)
ここで、ri はi番目の素子の配列上(神経場)での位置、αは学習の強さを表す正の定数である。

SOM5: SOM2にもどって処理を繰り返す。

SOMによる学習において、学習は勝者cの周囲でおこる。これを近傍学習といい、hciを近傍関数という。前記の式(3) で与えた近傍関数はガウス関数を使用している。σは近傍の広がりを決定する正の定数である。式(1) の絶対値は、入力信号空間内のユークリッド距離、式(3) の絶対値は、素子配列上のユークリッド距離である。

さらに、ニューラルガスによる学習を簡単に説明する。

GAS1: 参照ベクトルmi (i=1,…,n)の初期値を設定する。nは素子数である。

GAS2: 入力信号(入力ベクトル)xを生成する。

GAS3: 入力信号xに対し、参照ベクトルmi とのユークリッド距離をすべての素子について求め、距離の小さい順に素子を順位付けする。以下ではi番目の素子は第si 位にランクされたと仮定する。

GAS4: 以下の式(4) にしたがい参照ベクトルmi (i=1,…,n)の学習を行う。

mi =mi +αg(si )(x-mi ) 式(4)
GAS5: GAS2に戻って処理を繰り返す。
ニューラルガスでは、学習は入力信号xに近い参照ベクトルmi を持つ素子ほど大きく、その大きさを決定する関数がg(s)である。例えば、R,0≦R<1として、
g(s)=Rs-1 (s=1,2,…,n) 式(5)
を用いる。

このように、SOMにおける学習が近傍学習であるのに対し、ニューラルガスでは順位学習が行われる。ニューラルガスでは素子間の隣接関係を順位学習後に定義するため、様々な形状を持つ信号空間に対応することができるという特徴がある。
【非特許文献1】
T. Kohonen, "Self-organized formation of topology correct feature maps," Biological Cybernetics, vol.43, 1982, pp.59-69
【非特許文献2】
T. Martinetz, S. Berkovich, K. Schulten, "Neural-gas network for vector quantization and its application to time-series prediction," IEEE Transactions on Neural Networks, 4, 1993, pp.558-567

Field of industrial application (In Japanese)

本発明は、ある空間を自由に移動できるロボットの位置ならびに向きの情報を当該ロボットの視覚的時系列信号から分離・抽出するために、当該ロボットの位置ならびに向きを自己組織化モデルにより学習する処理方法、前記処理方法を実行する処理システム、および前記処理システムとしてコンピュータを機能させるためのプログラムに関する。

Scope of claims (In Japanese)
【請求項1】
 
ある空間を自由に移動できるロボットの視覚センサが入力した視覚入力情報から当該空間における当該ロボットの位置および向きの情報を分離・抽出するために、当該視覚入力情報をニューラルネットワークモデルに与えて当該モデルを自己組織的に学習する処理方法であって、
前記位置のための第1軸と第2軸で作られる面に複数の素子が独立して配置された素子面と前記向きのための第3軸の方向に各素子面の1つの素子が隣り合う関係を保持して属する素子コラムとにより構成される3次元構造であって、かつ前記素子コラムが前記向きの位相に対応して円環上に構成されるSOMとニューラルガスの直積モデルを備え、
前記直積モデルに前記視覚入力情報を入力する視覚情報入力処理過程と、
前記直積モデルにおいて、前記視覚入力情報に最も近い参照ベクトルを持つ素子を求めて勝者とし、前記勝者について、前記直積モデルの素子面を用いて前記位置の選択性について順位学習を行い、かつ、前記直積モデルの素子コラムを用いて前記方向の選択性について近傍学習を行い、前記位置および方向の選択性の学習から、前記素子ごとに前記位置および前記向きの選択性を取得する学習処理過程とを備える
ことを特徴とするロボットの位置および向きの情報の自己組織的学習処理方法。

【請求項2】
 
さらに、前記ロボットの直前の状態からの位置または向きのいずれか一つの変化を前記直積モデルに入力する変化入力処理過程を備え、
前記学習処理過程では、前記変化入力処理過程において前記位置の変化を入力した場合に、前記視覚入力情報に最も近い参照ベクトルを持つ素子を前回の勝者が属する素子面から決定し、決定した勝者について前記順位学習および前記近傍学習を組み合わせた学習を行って、前記素子ごとに前記位置および前記向きの選択性を取得する
ことを特徴とする請求項1記載のロボットの位置および向きの情報の自己組織的学習処理方法。

【請求項3】
 
さらに、前記ロボットの直前の状態からの位置または向きのいずれか一つの変化を前記直積モデルに入力する変化入力処理過程を備え、
前記学習処理過程では、前記変化入力処理過程において前記向きの変化を入力した場合に、前記視覚入力情報に最も近い参照ベクトルを持つ素子を前回の勝者が属する素子コラムから決定し、決定した勝者について前記順位学習および前記近傍学習を組み合わせた学習を行って、前記素子ごとに前記位置および前記向きの選択性を取得する
ことを特徴とする請求項1記載のロボットの位置および向きの情報の自己組織的学習処理方法。

【請求項4】
 
ある空間を自由に移動できるロボットの視覚センサが入力した視覚入力情報から当該空間における当該ロボットの位置および向きの情報を分離・抽出するために、当該視覚入力情報をニューラルネットワークモデルに与えて当該モデルを自己組織的に学習する処理システムであって、
前記位置のための第1軸と第2軸で作られる面に複数の素子が独立して配置された素子面と前記向きのための第3軸の方向に各素子面の1つの素子が隣り合う関係を保持して属する素子コラムとにより構成される3次元構造であって、かつ前記素子コラムが前記向きの位相に対応して円環上に構成されるSOMとニューラルガスの直積モデルと、
前記直積モデルに前記視覚入力情報を入力する視覚情報入力処理手段と、
前記直積モデルにおいて、前記視覚入力情報に最も近い参照ベクトルを持つ素子を求めて勝者とし、前記勝者について、前記直積モデルの素子面を用いて前記位置の選択性について順位学習を行い、かつ、前記直積モデルの素子コラムを用いて前記方向の選択性について近傍学習を行い、前記位置および方向の選択性の学習から、前記素子ごとに前記位置および前記向きの選択性を取得する学習処理手段とを備える
ことを特徴とするロボットの位置および向きの情報の自己組織的学習処理システム。

【請求項5】
 
さらに、前記ロボットの直前の状態からの位置または向きのいずれか一つの変化を前記直積モデルに入力する変化入力処理手段を備え、
前記学習処理手段は、前記変化入力処理手段によって前記位置の変化を入力した場合に、前記視覚入力情報に最も近い参照ベクトルを持つ素子を前回の勝者が属する素子面から決定し、決定した勝者について前記順位学習および前記近傍学習を組み合わせた学習を行って、前記素子ごとに前記位置および前記向きの選択性を取得する処理を行う
ことを特徴とする請求項4記載のロボットの位置および向きの情報の自己組織的学習処理システム。

【請求項6】
 
さらに、前記ロボットの直前の状態からの位置または向きのいずれか一つの変化を前記直積モデルに入力する変化入力処理手段を備え、
前記学習処理手段は、前記変化入力処理手段によって前記向きの変化を入力した場合に、前記視覚入力情報に最も近い参照ベクトルを持つ素子を前回の勝者が属する素子コラムから決定し、決定した勝者について前記順位学習および前記近傍学習を組み合わせた学習を行って、前記素子ごとに前記位置および前記向きの選択性を取得する処理を行う
ことを特徴とする請求項4記載のロボットの位置および向きの情報の自己組織的学習処理システム。

【請求項7】
 
ある空間を自由に移動できるロボットの視覚センサが入力した視覚入力情報から当該空間における当該ロボットの位置および向きの情報を分離・抽出するために、当該視覚入力情報をニューラルネットワークモデルに与えて当該モデルを自己組織的に学習する処理システムとしてコンピュータを機能させるためのプログラムであって、
前記位置のための第1軸と第2軸で作られる面に複数の素子が独立して配置された素子面と前記向きのための第3軸の方向に各素子面の1つの素子が隣り合う関係を保持して属する素子コラムとにより構成される3次元構造であって、かつ前記素子コラムが前記向きの位相に対応して円環上に構成されるSOMとニューラルガスの直積モデルと、
前記直積モデルに前記視覚入力情報を入力する視覚情報入力処理手段と、
前記直積モデルにおいて、前記視覚入力情報に最も近い参照ベクトルを持つ素子を求めて勝者とし、前記勝者について、前記直積モデルの素子面を用いて前記位置の選択性について順位学習を行い、かつ、前記直積モデルの素子コラムを用いて前記方向の選択性について近傍学習を行い、前記位置および方向の選択性の学習から、前記素子ごとに前記位置および前記向きの選択性を取得する学習処理手段とを備える処理システムとして
前記コンピュータを機能させるためのロボットの位置および向きの情報の自己組織的学習処理プログラム。

【請求項8】
 
さらに、前記ロボットの直前の状態からの位置または向きのいずれか一つの変化を前記直積モデルに入力する変化入力処理手段を備え、
前記学習処理手段は、前記変化入力処理手段によって前記位置の変化を入力した場合に、前記視覚入力情報に最も近い参照ベクトルを持つ素子を前回の勝者が属する素子面から決定し、決定した勝者について前記順位学習および前記近傍学習を組み合わせた学習を行って、前記素子ごとに前記位置および前記向きの選択性を取得する処理を行う
ことを特徴とする請求項7記載のロボットの位置および向きの情報の自己組織的学習処理プログラム。

【請求項9】
 
さらに、前記ロボットの直前の状態からの位置または向きのいずれか一つの変化を前記直積モデルに入力する変化入力処理手段を備え、
前記学習処理手段は、前記変化入力処理手段によって前記向きの変化を入力した場合に、前記視覚入力情報に最も近い参照ベクトルを持つ素子を前回の勝者が属する素子コラムから決定し、決定した勝者について前記順位学習および前記近傍学習を組み合わせた学習を行って、前記素子ごとに前記位置および前記向きの選択性を取得する処理を行う
ことを特徴とする請求項7記載のロボットの位置および向きの情報の自己組織的学習処理プログラム。
IPC(International Patent Classification)
F-term
Drawing

※Click image to enlarge.

JP2003414118thum.jpg
State of application right Registered
Please contact us by E-mail if you have any interests on this patent


PAGE TOP

close
close
close
close
close
close
close