TOP > 国内特許検索 > 太陽光発電予測装置、太陽光発電予測方法及び太陽光発電予測プログラム > 明細書

明細書 :太陽光発電予測装置、太陽光発電予測方法及び太陽光発電予測プログラム

発行国 日本国特許庁(JP)
公報種別 特許公報(B2)
特許番号 特許第5888640号 (P5888640)
公開番号 特開2013-074695 (P2013-074695A)
登録日 平成28年2月26日(2016.2.26)
発行日 平成28年3月22日(2016.3.22)
公開日 平成25年4月22日(2013.4.22)
発明の名称または考案の名称 太陽光発電予測装置、太陽光発電予測方法及び太陽光発電予測プログラム
国際特許分類 H02J   3/00        (2006.01)
H02J   3/38        (2006.01)
FI H02J 3/00 170
H02J 3/38 130
請求項の数または発明の数 3
全頁数 20
出願番号 特願2011-211050 (P2011-211050)
出願日 平成23年9月27日(2011.9.27)
新規性喪失の例外の表示 特許法第30条第1項適用 平成23年8月30日 社団法人電気学会 電力・エネルギー部門発行の「平成23年 電気学会 電力・エネルギー部門大会 論文集」に発表
審査請求日 平成26年8月1日(2014.8.1)
特許権者または実用新案権者 【識別番号】801000027
【氏名又は名称】学校法人明治大学
発明者または考案者 【氏名】森 啓之
【氏名】高橋 政人
個別代理人の代理人 【識別番号】100064908、【弁理士】、【氏名又は名称】志賀 正武
【識別番号】100106909、【弁理士】、【氏名又は名称】棚井 澄雄
【識別番号】100108578、【弁理士】、【氏名又は名称】高橋 詔男
【識別番号】100126882、【弁理士】、【氏名又は名称】五十嵐 光永
審査官 【審査官】高野 誠治
参考文献・文献 特開2008-054439(JP,A)
特開2004-086896(JP,A)
特開2007-215354(JP,A)
特開2008-083971(JP,A)
特開平10-177076(JP,A)
調査した分野 H02J 3/00 - 5/00
特許請求の範囲 【請求項1】
発電所における電力系統の安定運用を実現するための太陽光発電の発電量を予測する太陽光発電予測装置であって、
発電量予測に必要なデータを入力するデータ入力手段と、
初期温度パラメータ、温度パラメータの上限値と収束判定基準値を設定する初期値設定手段と、
初期のクラスタ代表をデータの中から選択し、所属確率を求める所属確率算出手段と、
前記所属確率から新しいクラスタ代表を求め、新しいクラスタ代表から新しい所属確率を求める新所属確率算出手段と、
所定の評価関数よる評価の結果、前記収束判定基準値に基づく条件を満たすか否かを判定し、前記条件を満たさない場合処理を繰り返し、前記条件を満たす場合、温度パラメータが温度パラメータ上限値に達したか否かに基づき終了条件を満たすか否かを判定し、終了条件を満たさないのであれば、前記温度パラメータを増加させて処理を繰り返し、前記終了条件を満たすまで処理を繰り返すことによりDAクラスタリングを実施することによりラジアル基底関数ネットワークモデルの学習データとするために、前記入力データをクラスタリングにより分類するクラスタリング処理手段と、
前記クラスタリングされたクラスタ毎に前記ラジアル基底関数ネットワークモデルを構築し、テストデータと一番近いクラスタ代表を持つクラスタヘ分類するモデル構築手段と、
前記テストデータが分類されたクラスタにおける前記ラジアル基底関数ネットワークモデルを用いて、太陽光発電の発電量を予測して、予測発電量を出力する予測手段と
を備えることを特徴とする太陽光発電予測装置。
【請求項2】
発電所における電力系統の安定運用を実現するための太陽光発電の発電量を予測する太陽光発電予測方法であって、
発電量予測に必要なデータを入力するデータ入力ステップと、
初期温度パラメータ、温度パラメータの上限値と収束判定基準値を設定する初期値設定ステップと、
初期のクラスタ代表をデータの中から選択し、所属確率を求める所属確率算出ステップと、
前記所属確率から新しいクラスタ代表を求め、新しいクラスタ代表から新しい所属確率を求める新所属確率算出ステップと、
所定の評価関数よる評価の結果、前記収束判定基準値に基づく条件を満たすか否かを判定し、前記条件を満たさない場合処理を繰り返し、前記条件を満たす場合、温度パラメータが温度パラメータ上限値に達したか否かに基づき終了条件を満たすか否かを判定し、終了条件を満たさないのであれば、前記温度パラメータを増加させて処理を繰り返し、前記終了条件を満たすまで処理を繰り返すことによりDAクラスタリングを実施することによりラジアル基底関数ネットワークモデルの学習データとするために、前記入力データをクラスタリングにより分類するクラスタリング処理ステップと、
前記クラスタリングされたクラスタ毎に前記ラジアル基底関数ネットワークモデルを構築し、テストデータと一番近いクラスタ代表を持つクラスタヘ分類するモデル構築ステップと、
前記テストデータが分類されたクラスタにおける前記ラジアル基底関数ネットワークモデルを用いて、太陽光発電の発電量を予測して、予測発電量を出力する予測ステップと
を有することを特徴とする太陽光発電予測方法。
【請求項3】
コンピュータを、請求項1に記載の太陽光発電予測装置として機能させるための太陽光発電予測プログラム。
発明の詳細な説明 【技術分野】
【0001】
本発明は、高精度に太陽光発電電力の予測を行う太陽光発電予測装置、太陽光発電予測方法及び太陽光発電予測プログラムに関する。
【背景技術】
【0002】
近年、地球温暖化の問題により、低炭素社会実現のために太陽光発電の導入拡大が期待されている。二酸化炭素削減に有効な太陽光発電が電力系統に導入される際、発電電力が天候によって変動する不確定性を持つ。電力系統を安定に運用するためにも、高精度な太陽光発電電力の予測が必要である。これまで、太陽光発電電力の予測の研究に関しては、日射量予測に対して時系列モデル、ニューラルネットワーク(Artificial Neural Network、以下、ANNと称する)等の方法がある。また、太陽光発電予測においては、気象データを用いた方法、日射量の予測値を用いた手法等が提案されている。
【0003】
また、太陽光発電モジュールの面において受け取られる照度を推定するとともに、太陽光発電装置の電気生産量を推定し、過去の関係期間が晴れであるか曇りであるかに基づき、推定量を修正する太陽光発電装置の電気生産量を予測する方法が知られている(例えば、特許文献1参照)。
【先行技術文献】
【0004】

【特許文献1】特開2010-239856号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
ところで、電力を供給する発電所においては、1日前に発電計画を立て、電力需要に応じて当日の出力調整が行われるが、太陽光発電は、天候変化による入力の不確定性を有しているため、発電所における電力系統の安定運用を実現するためには、高精度な太陽光発電電力予測が必須である。しかしながら、従来の予測方法では、太陽光発電の発電量を高精度に予測することができないという問題がある。
【0006】
本発明は、このような事情に鑑みてなされたもので、太陽光発電の発電量を高精度に予測することができる太陽光発電予測装置、太陽光発電予測方法及び太陽光発電予測プログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の太陽光発電予測装置は、太陽光発電の発電量を予測する太陽光発電予測装置であって、発電量予測に必要なデータを入力するデータ入力手段と、ニューラルネットワークの学習データとするために、前記入力データをクラスタリングにより分類するクラスタリング処理手段と、前記クラスタリングされたクラスタ毎にニューラルネットワークモデルを構築し、テストデータと一番近いクラスタ代表を持つクラスタヘ分類するモデル構築手段と、前記テストデータが分類されたクラスタにおけるニューラルネットワークを用いて、太陽光発電の発電量を予測して、予測発電量を出力する予測手段とを備えることを特徴とする。
【0008】
本発明の前記クラスタリング処理手段は、確定的アニーリングを用いてクラスタリングを行うことを特徴とする。
【0009】
本発明の前記ニューラルネットワークモデルは、ラジアル基底関数ネットワークを用いることを特徴とする。
【0010】
本発明の太陽光発電予測方法は、太陽光発電の発電量を予測する太陽光発電予測方法であって、発電量予測に必要なデータを入力するデータ入力ステップと、ニューラルネットワークの学習データとするために、前記入力データをクラスタリングにより分類するクラスタリング処理ステップと、前記クラスタリングされたクラスタ毎にニューラルネットワークモデルを構築し、テストデータと一番近いクラスタ代表を持つクラスタヘ分類するモデル構築ステップと、前記テストデータが分類されたクラスタにおけるニューラルネットワークを用いて、太陽光発電の発電量を予測して、予測発電量を出力する予測ステップとを有することを特徴とする。
【0011】
本発明の太陽光発電予測プログラムは、太陽光発電の発電量を予測する太陽光発電予測装置上のコンピュータに太陽光発電の発電量を予測させる太陽光発電予測プログラムであって、発電量予測に必要なデータを入力するデータ入力ステップと、ニューラルネットワークの学習データとするために、前記入力データをクラスタリングにより分類するクラスタリング処理ステップと、前記クラスタリングされたクラスタ毎にニューラルネットワークモデルを構築し、テストデータと一番近いクラスタ代表を持つクラスタヘ分類するモデル構築ステップと、前記テストデータが分類されたクラスタにおけるニューラルネットワークを用いて、太陽光発電の発電量を予測して、予測発電量を出力する予測ステップとを行わせることを特徴とする。
【発明の効果】
【0012】
本発明によれば、発電量予測に必要な入力データをクラスタリングにより分類し、クラスタ毎にニューラルネットワークモデルを構築し、テストデータと一番近いクラスタ代表を持つクラスタヘ分類し、テストデータが分類されたクラスタにおけるニューラルネットワークを用いて、太陽光発電の発電量の予測を行うようにしたため、太陽光発電の発電量を高精度に予測することができるという効果が得られる。
【図面の簡単な説明】
【0013】
【図1】本発明の一実施形態の構成を示すブロック図である。
【図2】図1に示す装置の処理動作を示すフローチャートである。
【図3】図1に示す装置の処理動作を示すフローチャートである。
【図4】RBFNの構造を示す説明図である。
【図5】DAクラスタリングを前処理の手法として用いて太陽光発電装置の発電電力を予測する処理の概念を示す図である。
【図6】DAの更新幅Δβを変化させたときの評価関数の変化を示す図である。
【図7】DAの更新幅Δβを変化させたときの各クラスタに割り当てられたデータの変化を示す図である。
【図8】クラスタ1の場合のRBFN構築に必要なDAクラスタリングにおけるΔβと評価関数の関係を示す図である。
【図9】クラスタ1の場合のDAクラスタリングにおけるΔβとクラスタへ所属したデータ数の関係を示す図である。
【図10】クラスタ2の場合のRBFN構築に必要なDAクラスタリングにおけるΔβと評価関数の関係を示す図である。
【図11】クラスタ2の場合のDAクラスタリングにおけるΔβとクラスタへ所属したデータ数の関係を示す図である。
【図12】クラスタ3の場合のRBFN構築に必要なDAクラスタリングにおけるΔβと評価関数の関係を示す図である。
【図13】クラスタ3の場合のDAクラスタリングにおけるΔβとクラスタへ所属したデータ数の関係を示す図である。
【図14】クラスタ数が3の本実施形態による予測結果出力と実測値を比較した図である。
【図15】各時間における誤差の推移を示す図である。
【発明を実施するための形態】
【0014】
以下、図面を参照して、本発明の一実施形態による太陽光発電予測装置を説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、コンピュータ装置で構成する太陽光発電予測装置である。符号2は、キーボード等の入力装置で構成し、情報入力操作を行う入力部である。符号3は、ディスプレイ装置で構成し、発電量の予測結果情報等を表示する表示部である。符号11は、発電量予測に必要なデータを入力するデータ入力部である。データ入力部11は、入力部2からのデータ入力に加え、他の機器が出力したデータやセンサ出力のデータを通信手段を用いて入力する。符号12は、データ入力部11において入力した入力データを分類するために、クラスタリング処理を行うクラスタリング処理部である。符号13は、クラスタリング処理部12において分類されたクラスタ毎に予測モデルを構築するモデル構築部である。符号14は、構築した予測モデルに基づき太陽光発電の発電電力の予測を行い、予測結果を出力する予測処理部である。

【0015】
次に、本実施形態による太陽光発電予測装置の動作原理について説明する。本実施形態では太陽光発電予測においてANNを適用し、より高精度な出力を得るために、データの前処理としてクラスタリングを用いたニューラルネットワークによる予測手法を用いる。前処理では、入力データに対しクラスタリングを行うことにより、いくつかのクラスタに分類する。その後、各クラスタにおいて類似データを抽出し、予測モデルを構築する。予測モデルは、高精度な非線形近似のラジアル基底関数ネットワーク(Radial Basis Function Network、以下、RBFNと称する)を用いる。ANNは入力データの分散が小さいほど高精度な出力が得られるという特徴を持つ。すなわち、よりテストデータに類似した学習データを用いることにより、高精度な解を得ることができる。強い相関関係を持つ入出力データにおいて、類似した入力データを用いることにより、出力データは高い確率で類似する。よって、類似データの集合を作成するため、クラスタリングによる前処理付きモデルを用いる。類似データを抽出したクラスタ毎に予測モデルを構築するので、各予測モデルの入力データの分散は抑えられていて単体の予測モデルより高精度な解を得ることができる。

【0016】
前処理として用いられる手法には、k-meansなどのクラスタリング手法がある。k-meansは高速に計算を行うが、解が初期値に依存する欠点を持つ。ここでは、クラスタリング手法として高精度で大域的なクラスタリングが可能な確定的アニーリング(Deterministic Annealing、以下、DAと称する)を用いる。DAは統計力学の概念における温度に依存する自由エネルギーを利用し、温度パラメータを高温状態から徐々に温度を下げることで、最適解に収束していく。各温度で目的関数が変化し確定的に最適化を行うため、初期値に依存せず、効率的に大域的最適解を得ることができる。また、RBFNの中心ベクトルの決定に対しても、DAクラスタリングを用いることにより、大域的な構造を持つRBFNを構築し、高精度な予測を行うことができる。

【0017】
ここで、図4を参照して、RBFNについて説明する。図4は、RBFNの構造を示す図である。RBFNは、入力層、中間層、出力層からなる3層構造の階層的ニューラルネットワークである。入力データは、入力層のユニットにそれぞれ割り振られ、各中間層に重みなしで渡される。中間層のユニットは応答関数と呼ばれるラジアル基底関数を備えていて、多層パーセプトロン(以下、MLPと称する)におけるシグモイド関数と同様の機能を果たす。ラジアル基底関数は、中心の位置と幅により定義されるガウス密度関数で表現される。ガウス密度関数は、入力データが中心位置に最も近い場合に、最大出力を与え、中心から離れるにつれて単調に減少する。ラジアル基底関数の幅は、その減少率の制御をするように働く。RBFNは、このラジアル基底関数を用いることにより、MLPよりも非線形近似能力が高くなる。また、中間層と出力層間の重みのみを学習するため、MLPより計算時間を大きく削減できるという利点がある。

【0018】
RBFNの中間層のユニットの出力は、数学的に表すと(1)式のように表される。
【数1】
JP0005888640B2_000002t.gif
RBFNの出力値yは、中間層のユニットの重み付けされた値となり、(2)式で求められる。
【数2】
JP0005888640B2_000003t.gif

【0019】
ラジアル基底関数の中心ベクトルの決定に対しては、クラスタリング手法を用いることにより、中心を定めることができる。従来技術では、中心ベクトルの決定において、クラスタリングの代表的手法であるk-meansが用いられている。この方法は、RBFNの基底関数の中心に対して、k-meansによって得られた各クラスタ代表を適用している。しかし、k-meansは初期値に依存する方法であり、必ず最適なクラスタリングを行えるとは限らないため、局所的な構造を持つRBFNとなる。本実施形態では、RBFNの基底関数の中心の決定に対して、DAクラスタリングを用いる。この方法は、初期値に依存することなく、最適なクラスタリングを行うことができる。これによって求まったクラスタ代表を利用することにより、大域的な構造を持つRBFNとすることが可能である。

【0020】
次に、クラスタリングについて説明する。クラスタリングとは、あるデータの集合において、データの分布などからデータの特徴的なパターンを見つけ、類似したデータをクラスタと呼ばれる部分集合に分割する手法である。すなわち、クラスタリングとは、与えられたデータのサンプル数mのベクトルの集合をk個の代表ベクトルを持つクラスタに分類する処理を行う。代表ベクトルは、分類された各クラスタの中心ベクトルであり、クラスタの特徴を表している。

【0021】
クラスタリング手法の一つであるk-meansは、距離を表す評価関数を最小化する分割を探索する。評価関数を(3)式に示す。
【数3】
JP0005888640B2_000004t.gif

【0022】
k-meansは、まず、k個の初期クラスタの重心を任意に設定し、各データと各クラスタの重心の距離を求め、距離が最小となる重心を持つクラスタヘ割り当てる。そして、クラスタヘの割り当てが変化しなければ終了し、そうでないならば、各クラスタの重心を求め、各クラスタの代表点としてクラスタ割り当て処理を繰り返す。

【0023】
一方、DAクラスタリング手法はアニーリング手法であり、温度パラメータを高温状態から温度を徐々に下げることにより最適解に収束する。DAは統計力学における自由エネルギーを利用し各温度において目的関数を変化させるため、解の初期値への依存や局所解に陥ることなく、効率的に最適化を行うことができる。DAは温度を少しずつ低下させ、低温状態になるに従って目的関数は与えられた非線形関数に近づいていく。これによってDAは十分な低温状態において元の目的関数を得る。また、DAは各温度において確定的に最適化を行い、現在の状態で得られた最適解を次の状態の初期値に使用し反復計算を行う。温度変化が小さいほど目的関数の変化も小さくなるため、高温状態からゆっくりと温度を下げることにより各温度で確定的な最適化を行う。この作業を繰り返すことで、十分な低温状態において大域的最適解を発見する。

【0024】
DAクラスタリングは、DAの原理を応用したクラスタリング手法である。DAクラスタリングは所属状態において確率を用いるため、あるデータが複数のクラスタヘ所属することを可能とする。これによりクラスタリング過程において、各データに対するクラスタ代表を柔軟に探索するため、初期値への依存や局所解に陥ることを抑制できる。従って、DAでは所属状態を確率で表し(4)式を得る。DAクラスタリングは(4)式における所属確率に対し、最大エントロピーの原理を用いる。これにより各々のデータが全てのクラスタに所属可能となる。最大エントロピーを用いた(4)式の所属確率は(5)式のようなボルツマン分布となる。
【数4】
JP0005888640B2_000005t.gif
【数5】
JP0005888640B2_000006t.gif

【0025】
(5)式におけるβは、アニーリングアルゴリズムにおける温度パラメータの逆数を示し、各温度において最適化を行う。β=0においては各々のデータが全てのクラスタに一様に所属する。一方、βが増加、すなわち温度が低下するにつれて、各データが少しずつ1つのクラスタに所属する。β=∞においてはある1つのクラスタに対しての所属確率が1となり、他のクラスタに対しては0となるため、全てのデータが各々1つのクラスタに所属する。統計力学における平衡状態では、自由エネルギーが最小となるため、各温度でクラスタの代表に関して(6)式を得る。(6)式を解くことによりクラスタ代表が更新される。各温度で確定的にクラスタリングを最適化するために、(5)式と(6)式を繰り返し計算する。(7)式は(6)式で得た反復回数t+1におけるクラスタ代表から得ることかできる新しい所属確率を表す。
【数6】
JP0005888640B2_000007t.gif
【数7】
JP0005888640B2_000008t.gif

【0026】
このように、DAクラスタリングは温度を下げる度に目的関数が変化し、各温度において確定的にクラスタ代表の最適化を行う。ここで、図2を参照して、図1に示すクラスタリング処理部12におけるDAクラスタリングの処理動作を説明する。図2は、図1に示すクラスタリング処理部12におけるDAクラスタリングの処理動作を示すフローチャートである。

【0027】
まず、クラスタリング処理部12は、初期温度パラメータβ、温度パラメータの上限値βmaxと収束判定基準εを設定する(ステップS1)。続いて、クラスタリング処理部12は、初期のクラスタ代表をデータの中から選択し(ステップS2)、(7)式によりtにおける所属確率を求める(ステップS3)。

【0028】
次に、クラスタリング処理部12は、求めた所属確率から(6)式により新しいクラスタ代表を求め(ステップS4)、新しいクラスタ代表から(7)式により新しい所属確率を求める(ステップS5)。

【0029】
次に、クラスタリング処理部12は、(4)式の評価関数よりd(t+1)を評価する(ステップS6)。この評価の結果、|d(t+1)-d(t)|/d(t)<εの条件を満たすか否かを判定する(ステップS7)。この判定の結果、条件を満たさないのであればステップS4に戻って処理を繰り返す。

【0030】
一方、この条件を満たすのであれば、クラスタリング処理部12は、終了条件(β≧βmax)を満たすか否かを判定する(ステップS8)。この判定の結果、終了条件を満たさないのであれば、クラスタリング処理部12は、βを増加させて(ステップS9)、ステップS4へ戻り、終了条件を満たすまで処理を繰り返し、終了条件を満たした時点で処理を終了する。

【0031】
次に、図1に示す太陽光発電予測装置1によって、太陽光発電装置の発電電力を予測する処理動作について説明する。ここでは、太陽光発電の発電電力の予測に対して、入力データの前処理とRBFNによる予測手法を用いる。ANNは入力データの分散が小さいほど高精度な出力が得られるという特徴を持ち、よりテストデータに類似した学習データを用いることにより、高精度な解を得ることができる。すなわち、強い相関関係を持つ入出力データにおいて、類似した入力データを用いることにより、出力データは高い確率で類似する。よって、類似データを抽出することができるクラスタリング手法を前処理として行えば、ANNの非線形近似能力を効率的に活かすことができる。そこで本実施形態では、高精度なクラスタリングが可能なDAクラスタリングを前処理の手法として用いる。

【0032】
図5を参照して、DAクラスタリングを前処理の手法として用いて太陽光発電装置の発電電力を予測する処理について説明する。図5は、DAクラスタリングを前処理の手法として用いて太陽光発電装置の発電電力を予測する処理の概念を示す図である。図5において、xは入力データ、Cl(i=1,2,…,n)はDAクラスタリングによって分類されたクラスタ、y(i=1,2,…,n)は出力を表す。テストデータの入力の際に一番近いクラスタ代表をもつクラスタを選択し、そのクラスタに構築されたRBFNにより予測を行う。また、RBFNの基底関数の中心の決定に対して、DAクラスタリングを用いる。DAクラスタリングは、最適なクラスタリングを行うことができるため、求まったクラスタ代表を利用することにより、大域的な構造を持つRBFNとなる。

【0033】
次に、図3を参照して、図1に示す太陽光発電予測装置1の処理動作を説明する。図3は、図1に示す太陽光発電予測装置1の処理動作を示すフローチャートである。まず、データ入力部11は、発電量予測に必要なデータを入力し、入力したデータをクラスタリング処理部12へ受け渡す。ここで入力されるデータは、時間、日射量、温度、太陽光発電パネルの温度、湿度、日照時間、全天日射量、直達日射量、散乱日射量、日射指数、雲量、紫外線、照度、雨量、太陽高度、太陽方位などである。これを受けて、クラスタリング処理部12は、前述した処理動作によって入力データをDAクラスタリングにより分類し(ステップS11)、各々のクラスタに含まれるデータをRBFNの学習データとする(ステップS12)。

【0034】
次に、モデル構築部13は、クラスタリング処理部12によってクラスタリングされたクラスタ毎にRBFNモデルを構築し(ステップS13)、テストデータと一番近いクラスタ代表を持つクラスタヘ分類する(ステップS14)。そして、予測処理部14は、テストデータが分類されたクラスタにおけるRBFNを用いて、太陽光発電の発電電力の予測を行い(ステップS15)、予測結果を表示部3に表示する。予測処理部14は、予測結果情報を他の機器へ出力するようにしてもよい。この処理動作によって、所定経過時間毎の予測発電電力量が関係付けられて出力されることになる。

【0035】
次に、前処理におけるDAクラスタリングのパラメータβの増加量について説明する。ここでは、図2に示すステップS9の「パラメータを増加させる」におけるパラメータβの増加量を更新幅Δβと称する。DAクラスタリングは、パラメータβを徐々に変化させることにより、最適クラスタリング結果を得る手法である。しかし、βの変化のさせ方によっては、解が存在しないことがある。そこで、本実施形態では、パラメータβを(8)式のように変化させるようにした。
βk+1=β+Δβ ・・・(8)
ただし、k:アルゴリズムの反復回数、β:反復回数kのときのパラメータβ、Δβ:更新幅である。

【0036】
良好な解を得るためには、(8)式におけるΔβが重要となる。前処理でクラスタに全データが収束するためのΔβの上下限値について説明する。DAの更新幅Δβを変化させたときの評価関数の変化を図6に示す。横軸の評価関数が小さいほど、クラスタ結果が良好であることを示す。同図より、更新幅Δβが0.01以下の際に良好な評価関数が得られることが分かる。よって、Δβの上下限値は、
0.03≦Δβ≦1.3 ・・・(9)
ただし、Δβ≦0.02と1.4≦Δβでは、評価関数が良いと見えるが、全データがいずれかのクラスタに収束していなかったため、不適切と判断する。

【0037】
DAの更新幅Δβを変化させたときの各クラスタに割り当てられたデータの変化を図7に示す。縦軸は、クラスタへ所属したデータ数を示しており、クラスタリングが適切に行われるならば、クラスタへ所属したデータ数は2700となる。すなわち、(9)式を満たすとき、全データがクラスタに収束した。

【0038】
次に、前処理後に得られたクラスタにおいてRBFNを構築する際に必要なデータクラスタリングDAの更新幅Δβについて説明する。前処理において全データは、3つのクラスタに分類された。クラスタ数が2,4よりもクラスタ数3の結果が最も良かった。クラスタ1において、RBFNを構築した結果
Δβ≦4 ・・・(10)
が適切な結果が得られた(図8、図9参照)。図8では、クラスタ1の場合のRBFN構築に必要なDAクラスタリングにおけるΔβと評価関数の関係を示す。図9はクラスタ1の場合のDAクラスタリングにおけるΔβとクラスタへ所属したデータ数の関係を示す。
同図において、Δβ≦4の場合、全データがいずれかのクラスタに収束した。他方、4<Δβでは、あるデータは、いずれのクラスタにも収束しなかった。

【0039】
同様に、クラスタ2、3においてΔβの適切な範囲はそれぞれ、(11)式、(12)式の通りである(図10、図11、図12、図13参照)。
Δβ≦4 ・・・(11)
Δβ≦20 ・・・(12)

【0040】
したがって、(10)式、(11)式、(12)式より、前処理後に得られたクラスタにおいてRBFNを構築する際に必要なデータクラスタリングDAの更新幅Δβは、
Δβ≦4
とすることが望ましい。

【0041】
次に、本実施形態による太陽光発電予測装置の効果を検証するために、シミュレーションを行った結果について説明する。RBFNの中心ベクトルの決定に対して、従来のクラスタリング手法であるk-meansを用いるk-RBFNと、DAクラスタリングを用いるD-RBFNを比較する。前処理の手法としても、k-meansとDAクラスタリングの比較を行い、本実施形態による手法の有効性を検討するため、ここでは以下の手法を定義する。
Method A:MLP
Method B:k-RBFN(中心ベクトルの決定:k-means、前処理なし)
Method C:k-means-k-RBFN(中心ベクトルの決定:k-means、前処理:k-means)
Method D:k-means-D-RBFN(中心ベクトルの決定:DAクラスタリング、前処理:k-means)
Method E:DA-D-RBFN(中心ベクトルの決定:DAクラスタリング、前処理:DAクラスタリング)

【0042】
シミュレーション条件は、以下の通りである。
(1)過去の太陽光発電電力とパネルの温度の1分毎の時系列データを用いて、30分後の発電出力予測を行う。同時刻における太陽光発電電力とパネルの温度において、それぞれ5分間の分散、10分間の分散、差分、二階差分を求めて、これらをANNの入力データとするため入力層の数は10次元となる。また、MLPとRBFNのクラスタ数n、学習係数α、モーメント係数η、モーメント増分値Δη、中間層の数、学習回数を表1に示す。これらのパラメータの値は、事前シミュレーションにより決定した。
【表1】
JP0005888640B2_000009t.gif

【0043】
(2)ここで用いるデータとして、2005年の5月2日から4日を学習データに、5日をテストデータとする。この期間において、20時から5時の夜間の間は発電量がなかったため、その期間を除いて5時から20時までの発電予測を行う。したがって、15時間の1分毎のデータが3日分あるため、学習パターンは2700通りとなる。また、クラスタリングのデータとしては、(1)に示した10次元と30分後の発電出力をベクトルに加えた11次元となる。また、事前シミュレーションにより決定したDAクラスタリングのパラメータを表2に示す。
【表2】
JP0005888640B2_000010t.gif

【0044】
(3)RBFNの基底関数の中心の決定には、クラスタリングの中心ベクトルを適用し、幅に対しては、中心ベクトルからそのクラスタに含まれる最も遠い点までの距離とする。

【0045】
上記のシミュレーション条件によりシミュレーションを行った結果は以下の通りある。k-meansとDAクラスタリングの有効性を示すために、初期値100通りに対する評価関数の最良値、平均値、最悪値、標準偏差を表3に示す。
【表3】
JP0005888640B2_000011t.gif

【0046】
k-meansとDAクラスタリングの評価関数は、各々(3)式と(4)式で与えられる。k-meansとDAクラスタリングの評価関数を比較すると、クラスタ数2のときは同一の値を得ている。それに対してクラスタ数3、4のときは、DAクラスタリングが最良値、平均値、最悪値、標準偏差において、各々良好な結果を得ている。最良値に関しては差が多少しかないが、平均値、最悪値、標準偏差において大きく改善されている。DAクラスタリングの標準偏差に関しては、クラスタ数がどの場合においても0となった。これは、DAクラスタリングが大域的なクラスタリングを行なっていることを示している。したがって、DAクラスタリングがクラスタリング手法において有効であることが確認された。

【0047】
表4に、Method AからMethod Eにより得られた30分後の発電量の、予測出力と教師データとの絶対値誤差の平均値(Ave.Error)、最大値(MAX Error)、標準偏差(Standard Deviation)を示す。表4において、[pu]はper unitを意味し、例えば、Method AのAve.Errorの6.3435×10-2は、教師データとの平均誤差が6.3435%であることを示している。また、絶対値誤差の平均値、最大値、標準偏差の各列の丸括弧内の値は、Method Aの絶対値誤差の平均値、最大値、標準偏差をそれぞれ1とした場合のMethod A~Eの相対値を示している。表4より、Method B(k-RBFN)とMethod C(k-means-k-RBFN)を比較すると、Method Bの教師データとの絶対値誤差の平均値、最大値、標準偏差はそれぞれ5.2238×10-2、2.9534×10-1、5.6678×10-2であり、Method Cのクラスタ数が3の場合、教師データとの絶対値誤差の平均値、最大値、標準偏差はそれぞれ4.8989×10-2、2.7838×10-1、4.7521×10-2であることから、Method Dの方が絶対値誤差の平均値、最大値、標準偏差でそれぞれ6.2196%、5.7425%、16.156%良好な結果を得ており、入力データに対してクラスタリングによる前処理を用いた方が、予測精度が向上していることが分かる。これは、ANNが入力データの分散が小さいほど高精度な出力が得られるという特徴を持つことから、クラスタリングにより類似データを抽出したことにより、ANNがより強い相関関係をもつ入出力データを得たためである。
【表4】
JP0005888640B2_000012t.gif

【0048】
Method D(k-means-D-RBFN)とMethod E(DA-D-RBFN)の、クラスタ数がそれぞれ3の場合を比較すると、Method Dの教師データとの絶対値誤差の平均値、最大値、標準偏差はそれぞれ4.6636×10-2、2.7687×10-1、4.6388×10-2であり、Method Eの教師データとの絶対値誤差の平均値、最大値、標準偏差はそれぞれ4.3892×10-2、2.7547×10-1、4.5734×10-2であることから、Method Eの方が絶対値誤差の平均値、最大値、標準偏差でそれぞれ5.8839%、0.5057%、1.4098%良好な結果を得ている。また、Method DとMethod Eでクラスタ数がそれぞれ4の場合、Method Dの教師データとの絶対値誤差の平均値、最大値、標準偏差はそれぞれ4.8733×10-2、2.8577×10-1、4.8562×10-2であり、Method Eの教師データとの絶対値誤差の平均値、最大値、標準偏差はそれぞれ4.6500×10-2、2.7576×10-1、4.6866×10-2であることから、クラスタ数を4としてもMethod Eの方が絶対値誤差の平均値、最大値、標準偏差でそれぞれ4.5821%、3.5028%、3.4924%良好な結果を得ている。これは、本発明における入力データの前処理の手法としてk-meansより、DAクラスタリングを採用した方が有効な手段であることを示している。また、前処理を施した手法であるMethod C~Method Eの中でクラスタ数が3のときに最も良好な結果を得ている。クラスタ数が4のときより、クラスタ数が3のときの方が優れているのは、クラスタ数を増やすとより類似したデータが集まるが、学習データが減少したことにより学習が困難となったためである。すなわち、入力データの前処理としてクラスタリングを行うときは、適切なクラスタ数を用いることにより、高精度な予測を行うことができる。

【0049】
次に、Method C(k-means-k-RBFN)とMethod D(k-means-D-RBFN)の、クラスタ数がそれぞれ3の場合を比較すると、Method Cの教師データとの絶対値誤差の平均値、最大値、標準偏差はそれぞれ4.8989×10-2、2.7838×10-1、4.7521×10-2であり、Method Dの教師データとの絶対値誤差の平均値、最大値、標準偏差はそれぞれ4.6636×10-2、2.7687×10-1、4.6388×10-2であることから、Method Dの方が絶対値誤差の平均値、最大値、標準偏差でそれぞれ4.8031%、0.5424%、2.3842%良好な結果を得ている。つまり、RBFNの基底関数の中心の決定にDAクラスタリングを用いた方が、予測誤差が小さくなっている。これは、k-RBFNが局所的構造を持つことに対して、D-RBFNが大域的構造を持つためである。

【0050】
以上より、本発明においてはRBFNの中心ベクトルの決定に対して、DAクラスタリングを用い、前処理の手法としてDAクラスタリングを用いるのが最も有効であり、クラスタ数が3のMethod E(DA-D-RBFN)の場合は、従来のANN手法であるMethod A(MLP)と比較して、平均誤差を30.808%、最大誤差を16.323%、標準偏差を29.323%改良し、従来のRBFN手法であるMethod B(k-RBFN)と比較しても、平均誤差を15.977%、最大誤差を6.7270%、標準偏差を19.309%改良した。

【0051】
ここで、クラスタ数が3のMethod Eを用いた場合の予測結果出力と実測値を図14に、そのときの各時間における誤差の推移を図15に示す。図14、図15において、用いているデータは1分毎のデータであるため、横軸は5時から20時までを0分から900分として表している。図14、図15より、0分から400分のように実測値が安定して発電しているときは近似しやすいが、500分から700分にかけて実測値が変動しており、そのときの誤差が大きくなっていることが分かる。そのため、最大誤差が大きくなってしまっている。しかし、最大誤差においても、本実施形態による手法は比較手法よりも良好な結果を得ており、太陽光発電予測の手法において、有効であることが確認された。

【0052】
以上説明したように、太陽光発電予測において、入力データに対しDA-クラスタリングを用いて高精度なクラスタリングを行い、RBFNの基底関数の中心の決定に対しても、DAクラスタリングを用いるD-RBFNを用いることにより、高精度で太陽光発電装置の発電電力予測を行うことができる。

【0053】
なお、図1における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより太陽光発電予測処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。

【0054】
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
【産業上の利用可能性】
【0055】
ニューラルネットワークを用いて、太陽発電装置の発電電力予測を行うことが不可欠な用途に適用できる。
【符号の説明】
【0056】
1・・・太陽光発電予測装置、11・・・データ入力部、12・・・クラスタリング処理部、13・・・モデル構築部、14・・・予測処理部、2・・・入力部、3・・・表示部
図面
【図1】
0
【図2】
1
【図3】
2
【図4】
3
【図5】
4
【図6】
5
【図7】
6
【図8】
7
【図9】
8
【図10】
9
【図11】
10
【図12】
11
【図13】
12
【図14】
13
【図15】
14