- 追加された行はこの色です。
- 削除された行はこの色です。
[[MatsuLab. Lecture Note/sougouenshu2006]]
*TSUBAMEを使って並列プログラミングをしよう [#yb72efb4]
担当:滝澤~
時間:月 13:20 - 15:00 木 15:00 - 16:30
**目次 [#uf741cae]
#contents
**スケジュール [#sd1ed9e9]
進捗によって変わると思います。
-10/16
--MPIの説明と、C言語とMPIの簡単な課題を出す
--C言語とMPIの簡単な課題の説明
-10/19
--松岡先生から研究室の説明
-10/23
--予備日
-10/26
--C言語とMPIの課題のチェック
--スパコンコンテスト課題の説明
-10/31
--予備日
-11/2
--予備日
-11/6
--予備日
-11/9
--スパコンコンテスト課題のチェック
「予備日」は、研究室に来なくてもよい。担当TAは研究室に在室するので質問等あったら訪ねてください。
「予備日」は研究室に来なくてもよい。担当TAは研究室に在室するので質問等あったら訪ねてください。また、この日に実習室で課題を解くのであれば、必要ならサポートに行きます。
**講義内容 [#o740a4fc]
***Cの基礎の勉強&課題 [#nad4b9bd]
***Cの基礎課題 [#nad4b9bd]
行列とベクトルの掛け算を行うプログラムを書きなさい。行列のサイズ、ベクトルのサイズはプログラムの引数から取得し、実行時に必要なメモリを確保すること。
また、行列、ベクトルの要素を生成するときに、乱数を用いてランダムな値で初期化するために、プログラムの引数には乱数のシードも取ること。
***MPIの基礎の勉強&課題 [#c40d3253]
例えば、以下のように3つの引数を取ればよい。
$ ./serial 乱数シード 行列の行数 行列の列数(ベクトルの要素数)
行列、ベクトルの要素の生成ルーチンをまとめたライブラリのソースを松岡研PCクラスタ上の次の場所に置いた。
/home/takizawa/array_gen.h
/home/takizawa/array_gen.c
このファイル内には以下の1つの関数が用意されている。
-void array_gen_init(int seed)
--引数に乱数生成時のシードを取る
--プログラム中、1度だけ実行する
-void create_random_array(int *array, int size)
--第1引数で与えられたINT型のポインタが指すアドレスから、第2引数個分の領域に0〜9のランダムな数を入れる。
--関数実行後、arrayが初期化されている。
以下のように使うこと。
int seed, *matrix, matrix_len;
・・・
array_gen_init(seed);
matrix = (int *)malloc(・・・);
create_random_array(matrix, matrix_len);
・・・
free(matrix);
メインプログラムを「serial.c」とした場合、次のようにコンパイルすれば、実行ファイル「serial」が出来上がる。
$ gcc -c array_gen.c
$ gcc -c -Wall serial.c
$ gcc -o serial serial.o array_gen.o
$ rm serial.o array_gen.o <- 必要ないなら削除してかまわない
ヒント&注意
-行列のメモリ領域は1つの連続的な領域として確保すること。すなわち、以下のように確保すること。
int *matrix = (int *)malloc(行数 * 列数)
-計算結果のオーバーフローは考慮しなくてよい。
-メモリ管理が必要であること以外はJavaと同じように記述できるはず。
-以下のCの関数が参考になるかもしれない。使い方はWEBで検索か、ターミナルで「man 関数名」と打って調べること。
atoi
free
malloc
printf
***MPIの基礎課題 [#c40d3253]
「Cの基礎課題」のプログラムをMPIを使って並列化する。
このとき、行列の分割は、「COLOR(BLUE){全てのプロセスが同じ数の要素を処理する}」ように分割するのでかまわない。
すなわち、16x16行列が与えられ、2プロセスで計算する場合には、各プロセスは行列中の8x16個の要素の計算を行う。4プロセスで計算する場合には4x16個、8プロセスで計算する場合には2x16個の要素を計算する。
この場合、行列の要素数は使用プロセス数で割り切れる必要がある。
余裕があれば、任意のプロセス数で処理できるようにプログラムを修正すること(自由)。
メインプログラムを「mpi.c」とした場合、次のようにコンパイルすれば、実行ファイル「mpi」が出来上がる。
$ gcc -c array_gen.c
$ mpicc -c -Wall mpi.c
$ mpicc -o mpi mpi.o array_gen.o
$ rm mpi.o array_gen.o <- 必要ないなら削除してかまわない
以下のように実行できるようにすること。
$ mpirun -np 4 -machinefile machines -nolocal ./mpi 乱数シード 行列の行数 行列の列数
ヒント&注意
-MPIについては参考文献の1や2、3を参考にするとよい。
-行列データ、ベクトルデータの生成は1プロセス上でのみ行い、そのプロセスがMPI関数を使用して他のプロセスに配ること。
-最後に各プロセスが計算した結果を1つのプロセスに集めること。
-実際、MPI_SendとMPI_Recvだけで実装できてしまう(通信関数に関しては)。しかし、集団通信関数を使うことにより、より効率よく実装・実行できる(ことがある)。
-集団通信関数は、以下の3つを参考に。
MPI_Bcast
MPI_Gather
MPI_Scatter
-さらに、任意個のプロセスで実行できるようにするときには、以下の関数を使用するとよい。
MPI_Gatherv
MPI_Scatterv
***スパコンコンテスト課題 [#m8b7eed5]
あとで
**課題の進め方 [#ib4f1098]
その1
-演習室MACでプログラムを編集
-scpコマンドでプログラムを実行環境(PrestoIIIクラスタ、TSUBAME)にリモートコピー
-sshコマンドで実行環境にログイン
-実行環境でプログラムをコンパイル&実行
その2
-sshコマンドで実行環境にログイン
-実行環境上でviやemacs( -nw)などでプログラムを編集、コンパイル&実行
***松岡研PCクラスタ PrestoIII の使い方 [#p9d75bfc]
-ログイン
++ログインノードnimbus.titech.hpcc.jpへログイン
$ ssh -l USERNAME nimbus.titech.hpcc.jp
++実行マシンへログイン
$ rsh pad018.titech.hpcc.jp
-リモートコピー
--使用端末(演習室のMACなど)から以下のコマンド
$ scp mpi.c USERNAME@nimbus.titech.hpcc.jp:
***TSUBAMEの使い方 [#j5fbd017]
あとで
**参考文献(URL) [#ze2b62e8]
+MPIによる並列プログラミングの基礎
+MPIによる並列プログラミングの基礎(PDF)
--[[http://mikilab.doshisha.ac.jp/dia/smpp/cluster2000/PDF/chapter02.pdf:http://mikilab.doshisha.ac.jp/dia/smpp/cluster2000/PDF/chapter02.pdf]]
+MPI-1.1 Document(PDF)
--[[http://www.mpi-forum.org/docs/mpi1-report.pdf:http://www.mpi-forum.org/docs/mpi1-report.pdf]]
--サイズが大きいので、ダウンロードして読むことを薦めます
+MPI Routines
--[[http://www-unix.mcs.anl.gov/mpi/www/www3/:http://www-unix.mcs.anl.gov/mpi/www/www3/]]