[[MatsuLab. Lecture Note/sougouenshu2006]] *TSUBAMEを使って並列プログラミングをしよう [#yb72efb4] 担当:滝澤<takizawa@matsulab.is.titech.ac.jp>~ 時間:月 13:20 - 15:00 木 15:00 - 16:30 **目次 [#uf741cae] #contents **スケジュール [#sd1ed9e9] 進捗によって変わると思います。 -10/16 --C言語とMPIの簡単な課題の説明 -10/19 --松岡先生から研究室の説明 -10/23 --予備日 -10/26 --C言語とMPIの課題のチェック --スパコンコンテスト課題の説明 -10/31 --予備日 -11/2 --予備日 -11/6 --予備日 -11/9 --スパコンコンテスト課題のチェック 「予備日」は研究室に来なくてもよい。担当TAは研究室に在室するので質問等あったら訪ねてください。また、この日に実習室で課題を解くのであれば、必要ならサポートに行きます。 **講義内容 [#o740a4fc] ***Cの基礎課題 [#nad4b9bd] 行列とベクトルの掛け算を行うプログラムを書きなさい。行列のサイズ、ベクトルのサイズはプログラムの引数から取得し、実行時に必要なメモリを確保すること。 また、行列、ベクトルの要素を生成するときに、乱数を用いてランダムな値で初期化するために、プログラムの引数には乱数のシードも取ること。 例えば、以下のように3つの引数を取ればよい。 $ ./serial 乱数シード 行列の行数 行列の列数(ベクトルの要素数) 行列、ベクトルの要素の生成ルーチンをまとめたライブラリのソースを松岡研PCクラスタ上の次の場所に置いた。 /home/takizawa/array_gen.h /home/takizawa/array_gen.c このファイル内には以下の1つの関数が用意されている。 -void array_gen_init(int seed) --引数に乱数生成時のシードを取る --プログラム中、1度だけ実行する -void create_random_array(int *array, int size) --第1引数で与えられたINT型のポインタが指すアドレスから、第2引数個分の領域に0〜9のランダムな数を入れる。 --関数実行後、arrayが初期化されている。 以下のように使うこと。 int seed, *matrix, matrix_len; ・・・ array_gen_init(seed); matrix = (int *)malloc(・・・); create_random_array(matrix, matrix_len); ・・・ free(matrix); メインプログラムを「serial.c」とした場合、次のようにコンパイルすれば、実行ファイル「serial」が出来上がる。 $ gcc -c array_gen.c $ gcc -c -Wall serial.c $ gcc -o serial serial.o array_gen.o $ rm serial.o array_gen.o <- 必要ないなら削除してかまわない ヒント&注意 -行列のメモリ領域は1つの連続的な領域として確保すること。すなわち、以下のように確保すること。 int *matrix = (int *)malloc(行数 * 列数) -計算結果のオーバーフローは考慮しなくてよい。 -メモリ管理が必要であること以外はJavaと同じように記述できるはず。 -以下のCの関数が参考になるかもしれない。使い方はWEBで検索か、ターミナルで「man 関数名」と打って調べること。 atoi free malloc printf ***MPIの基礎課題 [#c40d3253] 「Cの基礎課題」のプログラムをMPIを使って並列化する。 このとき、行列の分割は、「COLOR(BLUE){全てのプロセスが同じ数の要素を処理する}」ように分割するのでかまわない。 すなわち、16x16行列が与えられ、2プロセスで計算する場合には、各プロセスは行列中の8x16個の要素の計算を行う。4プロセスで計算する場合には4x16個、8プロセスで計算する場合には2x16個の要素を計算する。 この場合、行列の要素数は使用プロセス数で割り切れる必要がある。 余裕があれば、任意のプロセス数で処理できるようにプログラムを修正すること(自由)。 メインプログラムを「mpi.c」とした場合、次のようにコンパイルすれば、実行ファイル「mpi」が出来上がる。 $ gcc -c array_gen.c $ mpicc -c -Wall mpi.c $ mpicc -o mpi mpi.o array_gen.o $ rm mpi.o array_gen.o <- 必要ないなら削除してかまわない 以下のように実行できるようにすること。 $ mpirun -np 4 -machinefile machines -nolocal ./mpi 乱数シード 行列の行数 行列の列数 ヒント&注意 -MPIについては参考文献の1や2、3を参考にするとよい。 -行列データ、ベクトルデータの生成は1プロセス上でのみ行い、そのプロセスがMPI関数を使用して他のプロセスに配ること。 -最後に各プロセスが計算した結果を1つのプロセスに集めること。 -実際、MPI_SendとMPI_Recvだけで実装できてしまう(通信関数に関しては)。しかし、集団通信関数を使うことにより、よりスマートに実装でき、実行効率も良くなる。 -集団通信関数は、以下の3つを参考に。 MPI_Bcast MPI_Gather MPI_Scatter -さらに、任意個のプロセスで実行できるようにするときには、以下の関数を使用するとよい。 MPI_Gatherv MPI_Scatterv ***スパコンコンテスト課題 [#m8b7eed5] あとで **課題の進め方 [#ib4f1098] その1 -演習室MACでプログラムを編集 -scpコマンドでプログラムを実行環境(PrestoIIIクラスタ、TSUBAME)にリモートコピー -sshコマンドで実行環境にログイン -実行環境でプログラムをコンパイル&実行 その2 -sshコマンドで実行環境にログイン -実行環境上でviやemacs( -nw)などでプログラムを編集、コンパイル&実行 ***松岡研PCクラスタ PrestoIII の使い方 [#p9d75bfc] -ログイン ++ログインノードnimbus.titech.hpcc.jpへログイン $ ssh -l USERNAME nimbus.titech.hpcc.jp ++実行マシンへログイン $ rsh pad018.titech.hpcc.jp -リモートコピー --使用端末(演習室のMACなど)から以下のコマンド $ scp mpi.c USERNAME@nimbus.titech.hpcc.jp: ***TSUBAMEの使い方 [#j5fbd017] あとで **参考文献(URL) [#ze2b62e8] +MPIによる並列プログラミングの基礎(PDF) --[[http://mikilab.doshisha.ac.jp/dia/smpp/cluster2000/PDF/chapter02.pdf:http://mikilab.doshisha.ac.jp/dia/smpp/cluster2000/PDF/chapter02.pdf]] +MPI-1.1 Document(PDF) --[[http://www.mpi-forum.org/docs/mpi1-report.pdf:http://www.mpi-forum.org/docs/mpi1-report.pdf]] --サイズが大きいので、ダウンロードして読むことを薦めます +MPI Routines --[[http://www-unix.mcs.anl.gov/mpi/www/www3/:http://www-unix.mcs.anl.gov/mpi/www/www3/]]