文部科学省は2007年に2011年の完成を目指し、10ペタフロップス級のスーパーコンピュータを作るプロジェクトを開始。
そして2011年には、その成果が実り、日本の「富士通 京」が世界一位を獲得。
ペタというのは10の15乗だから、10ペタフロップスは毎秒10の16乗回の浮動小数点演算を実行できる性能だ。
完成後は研究者との共同利用施設となり、企業の利用も想定されている。
2011年にトップクラスとなるためには、10PFlops級の性能が必要だというが、そのためには、プロセッサ、メモリ、システム内のネットワークなどのハードウェア、さらに、それに必要なソフトウェアなどを組み合わせて、目標とする性能を達成できる構造の設計が必要になるわけだ。
この計画は理研の主導のもとで、1案を富士通が担当、もう、1案はNECと日立の連合チームが担当して検討を行うという、総額1000億円にものぼる税金を投入するプロジェクトなのだが、何のためにこうしたスーパーコンピュータを作るのだろうか?
具体的には、天気予報の精度向上、バイオ分野や新薬開発での人体シミュレーション、カーボンナノチューブや触媒などのナノ機能材料の分野などで利用されるのだという。
現在の天気予報では対象地域をXYZ3方向のメッシュに区切り、それぞれのメッシュの状態を変数として方程式を解いているのだが、当然のことながら計算には気温や湿度などのデータが必要になる。
これらのデータは気象観測や衛星観測などで取得するが、すべてのメッシュへの正確なデータを取得することは、現実問題として不可能だ。
そのため、台風の進路予測などでは、初期値を観測誤差の範囲でばらつかせてシミュレーションを繰り返し、それらの結果を総合して確率的な進路を割り出す「アンサンブル予報」という手法が用いられている。
台風の進路予想の精度を上げるには現在のメッシュでは粗過ぎるため、より細かいメッシュを使う必要があり、さらにアンサンブル予報では何百回ものシミュレーションが不可欠なため、更に強力な計算能力が必要になるというわけだ。
薬の開発は、多数の候補物質を試験管で効果を確認し、その中から絞り込んだ有望な候補に対して毒性試験や動物実験に進むという手順を取るのだが、手間が掛かるため当然時間とお金がかかる。
そこで、候補物質とターゲットとなるタンパク質との結合状態をコンピュータでシミュレーションして、より有望な候補を効率的に絞り込み、開発効率を高くしようというわけだ。
糖尿病の薬であるインシュリンは、通常2分子がペアとなり、このペアが3つリング状に繋がった6量体という形で存在している。
血糖値を下げるためには血液中で分解して単量体になる必要があるのだが、この6量体の結合は強固で、注射後に分解されて単量体となり効いて来るまでには、数時間が必要となるため、緊急の場合には間に合わないことになる。
この6量体となる結合部分を変更し、結合力を弱くすることで、30分程度で効く薬が作られるというわけだ。
このような短時間分解するインシュリンの最初の製品は、試行錯誤を繰り返して作られる。
そこでどの部分のアミノ酸をどう変えれば良いのかという答えを出すために、スーパーコンピュータで分子シミュレーションを行うことで、即効性の高いインシュリンの開発が効率よくできるようになると考えられている。
また医療分野では、分子レベルで心臓などの臓器のモデルまで多階層の人体モデルを作り、医療に役立てようという研究も行われている。
たとえば、細胞レベルの心臓シミュレーションモデルを使えば、正常な鼓動だけでなく、収縮部分の散在により鼓動周期が短くなり、心停止に至る心室細動などの症状も再現が可能になる。
薬や蘇生法の効果もスーパーコンピュータでシミュレーションが可能で、新薬の開発や遺伝子レベルの解析、さらには個人個人にあわせた治療法を選択したり、手術の効果のシミュレーションで最適な手術法を選択する、というようなレベルの医療が可能になると期待されている。
自動車業界でのコンピュータシミュレーションは、F1レースなどよく知られているように、CGでデザインしたモデルでシミュレーションを行い、試作車の製作回数を大幅に減らして開発期間の短縮とコストダウンを実現している。
最近では自動車の安全性に対する要求が厳しくなり、各種の条件での衝突に対して車がどのように変形し、乗員にどれだけの力が掛かるかなどの特性を求める必要が高まっているが、これをすべて、実車で衝突実験をやっていたのでは、時間も費用も膨大なものになるため、現状では100万メッシュ程度で衝突シミュレーションを繰り返している。
これを仮に地球シミュレータの10倍細かいメッシュでシミュレーションを行えば、衝突の際の鉄板のシワの寄り方が実験と非常に近いものになるのだという。
ナノの機能材料の分野では、カーボンナノチューブという新材料があるのだが、実用可能になる特性を持つナノチューブを、狙ったように作ることはできないというのが現状だ。
シミュレーションによって、触媒の働きを原子レベルのシミュレーションで解析し、鉄やニッケルなどの微粒子から、どのようにしてカーボンナノチューブが成長するかがわかれば、狙ったものを作ることができるようになると、期待されている。
また歪シリコンや高誘電率絶縁体とシリコン界面の状態をシミュレートし、より優れた性能の半導体を開発するも可能になるわけだ。
こうした分子シミュレーションなどは、実験で観測できない詳細な過程を、シミュレーションによって可視化するわけだが、可視化することのできない分野、つまり銀河系やブラックホールの衝突などの、実験室で再現して研究することが不可能な分野も存在する。
こうした分野では、理論に基づくコンピュータシミュレーションによって現象を理解し、それに対応する現象を望遠鏡で見つけて理論を確認してゆくという方法で、新しい発見が生まれるわけだ。
このように、スーパーコンピュータの能力をどう使えば、開発力に直結させることができるのかという研究は、現時点ではかなりのレベルに達している。
そうなると、あとは強力なスーパーコンピュータの開発と投入を、どれだけ早く、どの程度投入できるのかによって、実用化への道のりの長さが決まってくるわけだ。
このように産業界におけるシミュレーション計算の役割は日ごとに大きくなっている。
言い換えると、コンピュータによるシミュレーションは、実験・理論に続く「第3の手法」として確立しているため今では「産業競争力の鍵を握る」とまで言われているのだ。
高速コンピュータは、このようにあらゆる分野で、威力を発揮するため、天然資源の少ない日本では、こうしたスーパーコンピュータの開発は特に不可欠の投資だといっていいだろう。
では、日本のスーパーコンピュータの実用レベルはどの程度なのだろうか?
こちらにTOP500という世界で最も高速なコンピュータシステムの上位500位までを定期的にランク付けし、評価するプロジェクトがある。
2011年度の世界のトップ500システムの内訳を見ると・・
設置されている国別では アメリカ合衆国が 53パーセント弱で圧倒的な数だ。
第二位の中国は 15パーセント弱
三位の日本はたったの6パーセント
米国では日本の10倍近くのシステムが稼動している。
わかりやすく言えば、日本のスーパーコンピュータの開発は「点」であるのに対して、米国では「線」で繋がった開発が行われているのだ。
この体制の違いが今日の差の一因になったと言ってもいいだろう。
「線」で繋がった開発のためには、中期的・長期的な展望でロードマップを作り、持続的な開発をすることが重要なのだが、それは一民間企業でできることではない。
そのため国が計画・支援することが不可欠になるのだが、そうなると日本はちょっとねえ・・という感じがするのは私だけだろうか?
というのは、日本の場合、開発テンポがあまりにも遅すぎるのだ。
たとえば日本の誇る「地球シミュレータ」というスーパーコンピュータを例に挙げると、運用開始から3年以上が経過して、ようやく研究開発に着手という遅さだ。
こうしたものの開発は日進月歩の世界なのだから、ひとつのシステムが完成する際には、すでに次世代機の基礎研究を始めていなければ、アメリカに追いつくことはできないだろう。
このようにスーパーコンピュータの場合、もはや「開発する必要があるのかどうか」を議論している場合ではなく「いかに早く実行するか」というレベルなのだ。
使えるスーパーコンピュータを「持つ者」と「持たない者」とでは、競争力の差は今後ますます拡大してゆくことに、疑いの余地はない。
おまけ
2位でもいいから大量のスパコンを
なぜ「京」がスパコン1位を獲得できたのか
たるさんのパソコンフィールド