↑ トップ頁へ

2003.12.7
 
 


気象予報の技術競争…

 気象モデルには2つある。1つは地球全体で見る全球スペクトルモデル。もう1つが、一地域だけを対象とするメソスケールモデルだ。後者は予想の対象範囲によって、領域モデル、台風モデル(気象庁:メソ10km/領域20km/台風24km) のように様々な呼び名がついてはいるが、本質的には同じものである。
  (http://pfi.kishou.go.jp/open/mdlfrm/forum_04/sugi/sld010.htm)

 モデルは多いが、どれが優れているか、外部のものにはよくわからない。産業界と違って、商品仕様や品質の情報がはっきりしないからだ。しかも、市場セグメントや占有率といった情報もほとんど流れない。お蔭で、どうなっているのか判然としない。

 しかし、各国のメソスケールモデル開発状況を眺めると、競争状況がわかってくる。

 言うまでもなく、地域毎に、その土地特有の気象予測ニーズが存在している。予測機関はこれに応えるべく動くことになる。従って、メソスケールモデルは、本質的にバラバラになる素地が存在している。
 しかしながら、比較的よく使われるモデルは存在しているようだ。米NCAR(大気科学研究センター)/PSU(ペンシルベニア州立大)発の「MM5」だ。
  (http://www.mmm.ucar.edu/mm5/mm5-home.html)
 ところが、NCEP(環境予測センター)はこれとは異なる「ETA」を使っている。もちろん、これ以外のモデルもある。
  (http://wwwt.emc.ncep.noaa.gov/mmb/etameteograms/)

 このような状態が望ましい筈がない。当然ながら、モデルベースの統合が叫ばれている。そのため議論は盛んなようだ。しかし、どう見ても意見は割れており、統一どころではない。
 米国内でさえバラバラなのだから、国毎に見れば、さらにバラバラになるのは当然のことといえよう。

 日本でも、気象庁は領域モデルとして独自の「RSM」を開発している。
 但し、同名の米国製モデルがハワイ地域で動いているため、この名称は海外では通用しないらしい。
  (http://www.soest.hawaii.edu/MET/Faculty/rsm/research.html)
 気象庁は、さらに、集中豪雨対策に別系統の非静力学メソスケールモデルも開発済みとのことだ。
 米国でもOU(オクラホマ大学)がトルネード対策に「ARPS」を開発しているように、特定の気象に対するカスタムモデルはどうしても必要なようだ。
  (http://www.caps.ou.edu/ARPS/arpsoverview.html)

 バラバラ開発されているにもかかわらず、どこでも、メソスケールモデルの予測精度は年々向上しているようだ。
コンピュータ能力が向上するのに合わせ精緻化が進むからである。そして、その精度をあげるために、ますます独自の補正(「parametrization)が高度化する、というのが流れのようだ。そのお蔭で、役に立つ予測が提供されるようになっている。

 メソスケールモデルが全球モデルと独立しているなら、このような進歩のパターンで十分である。ところが、次第に両者を繋げる流れが強まってきた。そうなると、考え方が違うモデルや、思想がわからない補正が入っていると調整がとれなくなる。
 従って、先ずは、全球モデルの基本思想を確定し、統一モデルを作成する必要がある。コーディング規則を決めると同時に、モジュール化を図るしかない。まさに、ソフトウエア業界の標準化と同じ議論である。上手く進めば、モデル開発の効率が向上し、新しい発想をすぐに取り入れ易くなる。
 しかし、既存のモデル開発に執着して標準化がすすまなければ、技術進歩のスピードで落ちこぼれることになる。結節点にさしかかっているといえる。

 地域気象予測が当るのは嬉しいが、技術の進歩を牽引するのは、メソスケールモデルではなく、全球モデルなのである。
 こちらは、大きく見るので、メソスケールに比し、精緻な計算ができれば、その分だけ確実に精度がよくなる。その進歩は目で確認できる位だ。
  (http://pfi.kishou.go.jp/open/mdlfrm/forum_04/sugi/sld002.htm)

 もともと、気象予測モデルの原理自体は単純である。簡単に言えば、流体方程式を設定するだけのことだ。この方程式は一気に計算できないから、離散化して、個々に数値計算して統合することで結果を出すのである。
 当然のことながら、離散化した時に、分割サイズより細かな現象が落ちてしまう。当然、現実からの遊離が発生する。そのため問題になる現象を別途組込んだ補正を加えることになる。この部分は、経験論的な判断に委ねられる。しかも、必要となる補正対象の気象現象は、対象地域毎に相当異なる。そのため、この辺りの設定で、予測能力差がでてしまう。職人芸に近い部分を含んでいる訳だ。

 このような部分を含むから、予測結果だけで、モデルの優劣を判断するのは危険なのである。
 というのは、予測結果は、全体モデルの特徴だけでなく、補正の仕方や、計算機に落とすプログラムの巧拙、利用するコンピュータハード能力にも依存するからだ。
 しかも、コンピュータ能力が向上しているから、分割も細かくできるようになると、補正の欠点もわかってくる。なかなか複雑なのである。
 しかし、コンピュータ能力がボトルネックであることは間違いない。
 [気象庁では1996年にHitachiS3800、2001年にはDR8000E1を導入しているから、5年でハードを代替する方針のようだ。]

 例えば、世界最高速の「地球シミュレータ」を使えば、最精度の計算ができる。しかし、それでも分割サイズは5kmだろう。世界最強でも、その程度の能力なのだ。この粗さでは、雲のような気象現象はもっと小規模だからカウントできない。相変わらず補正は不可欠だ。
 つまり、世界最高の能力を持つコンピュータを使っているからといって、素晴らしい結果が得られる、と断言できかねる世界なのである。
 気象予測で先端を走ろうと考えるなら、ハードの先進性だけではなく、大量のプログラム開発者が必要になる。そして、その力を生かすには、モジュール化とコーデイング標準化は鉄則だ。
 世界における競争は熾烈なのである。

 この観点で考えると、モジュール化や標準化に熱心な、欧州24ヶ国がサポートするECMWF(European Centre for Medium-Range Weather Forecasts)の全球スペクトルモデル「IFS」が先頭を走ることになるのかもしれない。
  (http://www.ecmwf.int/about/overview/fc_by_computer.html)

 日本は、「地球シミュレータ」という跳び抜けたハードを持つが、どう見てもソフトの研究者数は少ない。その上、モジュール化やコーディング標準化の動きも緩やかなようだ。
 人は一気に増やせないかもしれないが、アジア圏を巻き込むなどすれば、標準化の動きを加速することはできると思われる。・・・是非、高い目標に向かって進んで欲しい。

 と言うのは、気象分野ではあるが、この競争は産業にとっても重要な意味を持つからだ。流体方程式を解くと言う点では、産業界には似た課題は沢山ある。
 従って、気象分野で培われたモジュール化やコーディング標準化スキルが産業界にも広まれば、日本の産業競争力は高まるのは間違いないのである。


 技術力検証の目次へ>>>     トップ頁へ>>>
 
    (C) 1999-2004 RandDManagement.com