オフィシャルサイト
http://www.openmp.org/
リンクなどは>>2以下で
探検
OpenMPプログラミング
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん
NGNG21デフォルトの名無しさん
2005/05/06(金) 07:39:0822デフォルトの名無しさん
2005/05/07(土) 11:38:36 >>20
2005β使え。
2005β使え。
23デフォルトの名無しさん
2005/05/14(土) 04:41:12 LinuxでOpenMPを使いたいのですが、gccのほかに何をダウンロードすればよいのでしょうか?
24デフォルトの名無しさん
2005/05/23(月) 08:04:49 OpenMPを使う利点を教えてください
2005/05/24(火) 12:54:36
2005/05/24(火) 20:05:51
共有メモリ型擬似4CPUは、もう普及へ向かっているわけだがw
CELLは分散メモリだからMPIか?
CELLは分散メモリだからMPIか?
2005/06/16(木) 00:42:33
gccに対応したフリーのOpenMPはどこからダウンロードできるのでしょうか?
2005/06/26(日) 17:44:34
29デフォルトの名無しさん
2005/08/11(木) 15:08:40 PentiumD買ったので、手持ちのソフトをOpenMPで並列化しようと思ってる。
尼で見つけた "Parallel Programming in OpenMP" って本の評価はどんなもんですか?
ttp://www.amazon.co.jp/exec/obidos/ASIN/1558606718/250-7296386-2789028
尼で見つけた "Parallel Programming in OpenMP" って本の評価はどんなもんですか?
ttp://www.amazon.co.jp/exec/obidos/ASIN/1558606718/250-7296386-2789028
2005/08/11(木) 16:14:03
2000年の本だと古いんじゃないかなあ。
Intelのサイトで技術PDF探してみては?
Intelのサイトで技術PDF探してみては?
31デフォルトの名無しさん
2005/08/12(金) 01:20:16 >>30
ですよねぇ。こういう方面の技術って、手詰まりなんですかね?
ですよねぇ。こういう方面の技術って、手詰まりなんですかね?
32デフォルトの名無しさん
2005/08/22(月) 04:23:24 OpenMPってpthreadと比較して何が違うのでしょうか?
2005/09/09(金) 21:43:42
逐次プログラムにちょっと書き足すだけで並列に動くお手軽さ。
34デフォルトの名無しさん
2005/11/05(土) 16:06:55 質問
#pragma omp parallel for private(j)
for(i=0;i<100;i++)
for(j=0;j<100;j++)
何か演算
とした場合これはiを分割して実行していて
jはローカル変数として分割されたiの中で0〜99まで回してるってことですか?
それともjが分割されているってことですか?
#pragma omp parallel for private(j)
for(i=0;i<100;i++)
for(j=0;j<100;j++)
何か演算
とした場合これはiを分割して実行していて
jはローカル変数として分割されたiの中で0〜99まで回してるってことですか?
それともjが分割されているってことですか?
2005/11/09(水) 21:46:22
愛を分割してる方
36デフォルトの名無しさん
2005/11/27(日) 06:12:29 インテルのコンパイラにはOpenMPはついてくるのですか?
2005/11/27(日) 10:56:58
2005/11/27(日) 19:13:26
Sunのソラリス落とせば
OpenMP付のSunのコンパイラも手に入るよ
高性能コンパイラが無料だなんてなあ
OpenMP付のSunのコンパイラも手に入るよ
高性能コンパイラが無料だなんてなあ
2005/12/03(土) 12:29:21
Athlon系は分散メモリだからOpenMP使えないのかな?
40デフォルトの名無しさん
2006/01/30(月) 08:24:142006/01/30(月) 15:18:18
簡単に並列処理を行わせるようにするためのもの?
将来的にはこういうのが普通に使われるようになるかもね。
将来的にはこういうのが普通に使われるようになるかもね。
2006/02/12(日) 01:28:59
GCCも4.2でOpenMP対応するみたいだね。
そしたらいよいよ知名度上がるんじゃないの?
そしたらいよいよ知名度上がるんじゃないの?
2006/02/14(火) 06:14:02
gccがないとOpenMP使えなかった環境てマックくらいじゃない?
Windowsもかな
Windowsもかな
2006/02/14(火) 12:48:54
Intel コンパイラはサポートに熱心だよな。
今度Mac版も出るらしいから、Win、Mac、Linuxどの環境でもGCC、IntelコンパイラでOpenMP
できるようになる鴨。
今度Mac版も出るらしいから、Win、Mac、Linuxどの環境でもGCC、IntelコンパイラでOpenMP
できるようになる鴨。
2006/02/14(火) 21:19:59
46デフォルトの名無しさん
2006/02/17(金) 12:06:20 OpenMPが使えるかどうかによってヘッダをインクルードするかどうかを条件分岐したいのですが
どのようにしたらコンパイラがOpenMPをサポートしているか調べられるでしょうか?
どのようにしたらコンパイラがOpenMPをサポートしているか調べられるでしょうか?
2006/02/17(金) 16:15:54
>>43
VC++8は対応してるよ
VC++8は対応してるよ
2006/02/17(金) 17:36:01
49デフォルトの名無しさん
2006/03/12(日) 17:43:30 GOMPはどこのページからダウンロードできるのでしょうか?
2006/03/12(日) 17:47:28
C++相談室で教えてやっただろうが。
2006/03/18(土) 21:11:59
TextSS のWindowsXP(Professional)64bit化おながいします
もしくは64bitにネイティブ対応したテキスト置換ソフトありますか?
そういや64bitにネイティブ対応している2chブラウザてありましたっけ?
もしくは64bitにネイティブ対応したテキスト置換ソフトありますか?
そういや64bitにネイティブ対応している2chブラウザてありましたっけ?
2006/03/19(日) 09:25:20
>>50
kwsk
kwsk
2006/03/19(日) 14:16:22
54デフォルトの名無しさん
2006/04/11(火) 11:57:56 OpenMP初めて知りました。こんなに簡単にマルチスレッドプログラムが作れるなんて
時代が変わったようだな
時代が変わったようだな
2006/04/18(火) 12:54:01
大きい単位で独立性の高いスレッドを切り出すのがパフォーマンスを上げるポイントなので、
細かい単位であっちこちで同期を取るようなプログラムが手軽に作れてしまえるOpenMPは痛し痒し。
激しくパフォーマンスが出なくてシングルで動かしたときより遅くなることも。
細かい単位であっちこちで同期を取るようなプログラムが手軽に作れてしまえるOpenMPは痛し痒し。
激しくパフォーマンスが出なくてシングルで動かしたときより遅くなることも。
56デフォルトの名無しさん
2006/04/21(金) 15:19:26 OpenMPってwindowsでできるの?
2006/04/21(金) 15:25:08
>>56
VC++ 2005
VC++ 2005
2006/05/02(火) 14:09:55
>>55
細粒度はパフォーマンスでないけど、お手軽並列化〜♪って感じなんでないかい。
細粒度はパフォーマンスでないけど、お手軽並列化〜♪って感じなんでないかい。
59デフォルトの名無しさん
2006/06/02(金) 08:39:59 OpenMPってお手軽だけど、効率はあまり良くないよね
2006/06/04(日) 00:55:01
モチロンソウヨ
2006/06/10(土) 00:01:58
ハイパースレッディングでOpenMP使うと激しく遅くなるよね。
2006/06/10(土) 22:40:12
それは論理CPUにスレッドをバインドすれば
なおるんじゃね?
どうやってバインドするかしらねーけど。
なおるんじゃね?
どうやってバインドするかしらねーけど。
2006/06/10(土) 23:52:44
あまってる演算器や回路をつかって2CPUに見せかけるのがHTだから
行列の計算のような同じタイプの計算を並列化した場合遅くなるのは当たり前。
片方は整数もう片方で実数計算をさせると効果が出るかもしれない。
行列の計算のような同じタイプの計算を並列化した場合遅くなるのは当たり前。
片方は整数もう片方で実数計算をさせると効果が出るかもしれない。
2006/06/11(日) 01:38:10
そうなると #pragma omp for が全滅・・・
2006/06/11(日) 18:15:49
同じ回路を使う場合でもレジスタが倍になって依存性が減るから、パイプラインのストールが減るよ。
あと実数がメインの場合、実数程の負荷は無いにせよアドレスの計算やループカウンタで整数も結構忙しい。
実数をメインにするとそこらへん上手く住み分け出来てると思った。
演算器を効率良く使えてウマー。
あと実数がメインの場合、実数程の負荷は無いにせよアドレスの計算やループカウンタで整数も結構忙しい。
実数をメインにするとそこらへん上手く住み分け出来てると思った。
演算器を効率良く使えてウマー。
2006/06/12(月) 18:36:58
依存性が減るって表現はしっくりこないな
67デフォルトの名無しさん
2006/08/26(土) 14:58:22 VS2005のC++でOpenMPを使おうと思って、コードを書きましたが、
プログラムが開始する前にエラーが起こります。
/openmp をつけてコンパイルしたり、マニフェストファイルに
<file name="vcompd.dll" hash="XXXX" hashalg="XXX"/>と入れ
たりしましたが、まったくピクリとも動いてくれません。
皆さんは普通にVS2005でOpenMP使ってますか?
プログラムが開始する前にエラーが起こります。
/openmp をつけてコンパイルしたり、マニフェストファイルに
<file name="vcompd.dll" hash="XXXX" hashalg="XXX"/>と入れ
たりしましたが、まったくピクリとも動いてくれません。
皆さんは普通にVS2005でOpenMP使ってますか?
2006/08/27(日) 10:05:19
インストーラ用のマージモジュールがあったので、適当なプログラムでインストーラーを作って入れた。
\Program Files\Common Files\Merge Modules
Microsoft_VC80_OpenMP_x86.msm
Microsoft_VC80_DebugOpenMP_x86.msm
リリース版だけならvcregist_x86.exeでも導入できる。
\Program Files\Common Files\Merge Modules
Microsoft_VC80_OpenMP_x86.msm
Microsoft_VC80_DebugOpenMP_x86.msm
リリース版だけならvcregist_x86.exeでも導入できる。
2006/08/27(日) 16:59:19
>>67
うん、普通に使える。
>プログラムが開始する前にエラーが起こります。
ってのがどういう意味かよく分からんし(コンパイル時か実行時か)、
とりあえずエラーメッセージとかソースとか晒してみたら。
うん、普通に使える。
>プログラムが開始する前にエラーが起こります。
ってのがどういう意味かよく分からんし(コンパイル時か実行時か)、
とりあえずエラーメッセージとかソースとか晒してみたら。
2006/08/28(月) 14:20:01
Pro以上なら普通に使えるが、実はStdやExpressでも使う方法がある。
足りないものはomp.h とvcomp(d).dllとインポートライブラリで、
これはPlatformSDK (for Win2003とかいう新しめの奴)を入れると付いてくる。
これをIDEの各検索パスに追加すればコンパイルは出来る。
ただし、WinSXSディレクトリにdllをインストールしないので実行時にDLLが無いためエラーになる。
この導入の仕方は>>68のとおり。
同じ方法でPGOもできないかと思ったがこれは無理でした。
ただ単純な/GL /LTCG オプションでのコンパイルは出来るからこれで我慢。
足りないものはomp.h とvcomp(d).dllとインポートライブラリで、
これはPlatformSDK (for Win2003とかいう新しめの奴)を入れると付いてくる。
これをIDEの各検索パスに追加すればコンパイルは出来る。
ただし、WinSXSディレクトリにdllをインストールしないので実行時にDLLが無いためエラーになる。
この導入の仕方は>>68のとおり。
同じ方法でPGOもできないかと思ったがこれは無理でした。
ただ単純な/GL /LTCG オプションでのコンパイルは出来るからこれで我慢。
7167
2006/08/29(火) 10:28:44 ありがとうございます。インポートライブラリを入れるとうまく動きました。
ためしに
for( i=1; i<=10000000; i++ ) {
double t1 = sin( i*3.14/10000000.0 );
double t2 = cos( i*3.14/10000000.0 );
s = s+t1*t1+t2*t2;
}
を計算すると、デバッグ版ではOpenMPの方が5倍くらい時間がかかるが、
リリース版では1割くらい早くなった。
ちなみに、ハイパースレッドのデュアル
ためしに
for( i=1; i<=10000000; i++ ) {
double t1 = sin( i*3.14/10000000.0 );
double t2 = cos( i*3.14/10000000.0 );
s = s+t1*t1+t2*t2;
}
を計算すると、デバッグ版ではOpenMPの方が5倍くらい時間がかかるが、
リリース版では1割くらい早くなった。
ちなみに、ハイパースレッドのデュアル
2006/08/29(火) 13:38:55
#pragma omp parallel for reduction(+:s)
for ( ...
そのプログラムだとこうですか?うちの環境だとHTの1CPUだからかずぶずぶの結果です。
for ( ...
そのプログラムだとこうですか?うちの環境だとHTの1CPUだからかずぶずぶの結果です。
73デフォルトの名無しさん
2006/10/03(火) 02:54:4374デフォルトの名無しさん
2006/10/26(木) 16:01:43 その次のステップの入門書がほしい
75デフォルトの名無しさん
2006/10/29(日) 00:07:31 72>> その意味で ずぶずぶ とはどこの方言?
2006/10/29(日) 08:21:18
>>75
東京
東京
2006/11/06(月) 03:38:12
g++では利用できないのでしょうか?
2006/11/06(月) 21:45:14
2006/11/18(土) 02:07:03
Openマンコぽこちんか
2006/11/20(月) 03:17:24
OpenマンPのG☆SPOTに決まってるだろバカか
81デフォルトの名無しさん
2006/12/03(日) 17:52:0282デフォルトの名無しさん
2006/12/24(日) 23:44:00 Sun SorilisとVC++(std)の組み合わせで、OpenMPできますか??
2007/02/25(日) 14:20:45
>>82
できない
できない
84デフォルトの名無しさん
2007/02/28(水) 07:03:32 OpenMPでスレッド数を取得するには
#pragma omp parallel
{
cout<<omp_get_num_threads()<<endl;
}
でよいのでしょうか?もっと何かスマートな方法はないでしょうか?
#pragma omp parallel
{
cout<<omp_get_num_threads()<<endl;
}
でよいのでしょうか?もっと何かスマートな方法はないでしょうか?
85デフォルトの名無しさん
2007/03/06(火) 08:50:24 #pragma omp sectionsでfor構文でのdynamicスケジュールの様な動作をさせたいのですが、
どのように書けばよいのでしょうか?
どのように書けばよいのでしょうか?
86デフォルトの名無しさん
2007/03/09(金) 12:49:12 しらね
2007/03/09(金) 13:28:27
>>72-73
OpenMPによる並列プログラミングと数値計算法
http://www.amazon.co.jp/gp/product/4621077171
とかどーでしょ。
>>84
パラレルリージョンの中でなくてもよいはず。
#ifdef _OPENMP
cout<<omp_get_num_threads()<<endl;
#endif
などとすればよいかと。
OpenMPによる並列プログラミングと数値計算法
http://www.amazon.co.jp/gp/product/4621077171
とかどーでしょ。
>>84
パラレルリージョンの中でなくてもよいはず。
#ifdef _OPENMP
cout<<omp_get_num_threads()<<endl;
#endif
などとすればよいかと。
2007/03/10(土) 02:10:13
omp_get_num_threads() はその時点でスレッドチームを構成しているスレッドの数を返すから
逐次実行部分で呼ぶと 1 を返す。
逐次実行部分で呼ぶと 1 を返す。
89デフォルトの名無しさん
2007/03/10(土) 16:00:16 #pragma omp parallel
{
#pragma omp single
cout<<omp_get_num_threads()<<endl;
}
{
#pragma omp single
cout<<omp_get_num_threads()<<endl;
}
90デフォルトの名無しさん
2007/03/25(日) 22:33:15 program main
!$ use omp_lib
implicit none
character(len=4),parameter :: str(0:2) = ["hage","hoge","huge"]
print *, "Hello, World!"
!$omp parallel num_threads(3)
!$ print *, trim(str(omp_get_thread_num()))
!$omp end parallel
end program main
!$ use omp_lib
implicit none
character(len=4),parameter :: str(0:2) = ["hage","hoge","huge"]
print *, "Hello, World!"
!$omp parallel num_threads(3)
!$ print *, trim(str(omp_get_thread_num()))
!$omp end parallel
end program main
91デフォルトの名無しさん
2007/04/02(月) 18:31:00 レベルの低い人向けの商売ってあるじゃないですか
たとえば、カレーライス。子供の食い物ね。マクドナルド。通はモスバーガーでしょ?
野球だと、巨人。クルマだと、トヨタ。音楽だと、ミスチル。政治だと、自民党。
ビートルズだと、ポールの曲。音楽分かってる人はジョンですよね。
マンガだと、手塚治虫や藤子不二雄。今更読む必要もないw
小説だと、古本屋に山積されてる赤川次郎。小説マニアは読みませんねw
長嶋茂雄・新庄剛志・三浦カズ・ゴン。名前だけでむかつきますね。
DELLってつまりそういうレベルの低い人向けの商品ですよね。
歴史を作るのは我々マニアですから、記憶からはいつか消え去るんですよDELLはw
たとえば、カレーライス。子供の食い物ね。マクドナルド。通はモスバーガーでしょ?
野球だと、巨人。クルマだと、トヨタ。音楽だと、ミスチル。政治だと、自民党。
ビートルズだと、ポールの曲。音楽分かってる人はジョンですよね。
マンガだと、手塚治虫や藤子不二雄。今更読む必要もないw
小説だと、古本屋に山積されてる赤川次郎。小説マニアは読みませんねw
長嶋茂雄・新庄剛志・三浦カズ・ゴン。名前だけでむかつきますね。
DELLってつまりそういうレベルの低い人向けの商品ですよね。
歴史を作るのは我々マニアですから、記憶からはいつか消え去るんですよDELLはw
92デフォルトの名無しさん
2007/04/07(土) 02:30:59 C++のクラスでstaticな変数を使いたいのですが、OpenMPの中で更新した場合、安全に更新されるのでしょうか?
2007/04/07(土) 07:36:57
されると思う?localな変数でも、ちゃんと明示しないと無理だし、
データ並列になっていないのでは意味無いと思わない?
データ並列になっていないのでは意味無いと思わない?
94デフォルトの名無しさん
2007/04/10(火) 11:50:17 ,ィ __
,. / |´ ̄`ヽー- 、 ト、 , -‐、/./.- 、 書き込みのはやきこと風の如く
/ | | ヽ l l ( 火◇風 ノ
/o ̄`ハ._.ゝ===┴=く.ノ- 、 ノ ◇ ◇ ( 他人と会話せざること林の如く
/o O / l´ ⌒ ⌒ lo ',ヽ ( 山◇ 林 }
\___/. ト、(●) (●) ハ ∧ `⌒/7へ‐´ ネットで煽ること火の如く
/ ,イ レ::::⌒(__人__)⌒l~T--‐彡 /./
/ ̄ ̄l. 彡、 |r┬-| ノ'l l::::::::::彡ー7⌒つ、 部屋から動かざること山の如し
彡:::::::::::l ト、__ `ー' /| l::::::::::::ミ {,_.イニノ
彡ソ/ノハ ト、 \ / ,イ 川ハ ヾー‐'^┴
,. / |´ ̄`ヽー- 、 ト、 , -‐、/./.- 、 書き込みのはやきこと風の如く
/ | | ヽ l l ( 火◇風 ノ
/o ̄`ハ._.ゝ===┴=く.ノ- 、 ノ ◇ ◇ ( 他人と会話せざること林の如く
/o O / l´ ⌒ ⌒ lo ',ヽ ( 山◇ 林 }
\___/. ト、(●) (●) ハ ∧ `⌒/7へ‐´ ネットで煽ること火の如く
/ ,イ レ::::⌒(__人__)⌒l~T--‐彡 /./
/ ̄ ̄l. 彡、 |r┬-| ノ'l l::::::::::彡ー7⌒つ、 部屋から動かざること山の如し
彡:::::::::::l ト、__ `ー' /| l::::::::::::ミ {,_.イニノ
彡ソ/ノハ ト、 \ / ,イ 川ハ ヾー‐'^┴
2007/04/12(木) 09:18:04
96デフォルトの名無しさん
2007/04/12(木) 10:50:30 祗園精舎の鐘の声
諸行無常の響きあり
娑羅双樹の花の色
盛者必衰の理をあらはす
おごれる人も久しからず
唯春の夜の夢のごとし
たけき者も遂にはほろびぬ
偏に風の前の塵に同じ
諸行無常の響きあり
娑羅双樹の花の色
盛者必衰の理をあらはす
おごれる人も久しからず
唯春の夜の夢のごとし
たけき者も遂にはほろびぬ
偏に風の前の塵に同じ
97デフォルトの名無しさん
2007/06/02(土) 15:05:34 一般論として、MPIよりもOpenMPの方が性能が低下する(遅くなる)ということはありえますか?
MPIのプログラムをOpenMPを使って書き換えたのですが、3割近く遅くなってしまいました。
MPIのプログラムをOpenMPを使って書き換えたのですが、3割近く遅くなってしまいました。
98デフォルトの名無しさん
2007/06/02(土) 15:29:34 一般論では遅くなります
2007/06/02(土) 15:37:48
きちんとチューニングされていれば、MPIの方が速い。
あとはpthreadを使って自分で書くという手もある。
あとはpthreadを使って自分で書くという手もある。
100デフォルトの名無しさん
2007/06/02(土) 15:42:04 OpenMPはお手軽。だからそれに伴って犠牲になっている部分もある。それが性能。
101デフォルトの名無しさん
2007/06/02(土) 17:50:17 MPIで並列効果出せるほどの大きな粒度ならOpenMPにする必要はない。
OpenMPの利点は小さな粒度の並列処理が簡単に書けることとシングルソースで
非OpenMP環境でもビルドしてテストできること。
それから既存のソースにディレクティブ挿入するだけで並列化できるところかな。
OpenMPの利点は小さな粒度の並列処理が簡単に書けることとシングルソースで
非OpenMP環境でもビルドしてテストできること。
それから既存のソースにディレクティブ挿入するだけで並列化できるところかな。
102デフォルトの名無しさん
2007/06/03(日) 06:10:20 >>101
同じ粒度でも、OpenMPの方が遅くなってしまいます。
OpenMPはスレッドレベルでの切り替えなので、プロセスレベルのMPIよりも、効率が良いと思っていたので
何が問題なのか、測りかねています。
同じ粒度でも、OpenMPの方が遅くなってしまいます。
OpenMPはスレッドレベルでの切り替えなので、プロセスレベルのMPIよりも、効率が良いと思っていたので
何が問題なのか、測りかねています。
103デフォルトの名無しさん
2007/06/03(日) 08:40:24 競合してるんじゃない?
104デフォルトの名無しさん
2007/06/03(日) 10:07:50 キャッシュのヒット率の差だと思う
もし、pragma omp forでやっているのなら、for文を二つに分けて
pragma omp parallelで二つに並列してみたら?
もし、pragma omp forでやっているのなら、for文を二つに分けて
pragma omp parallelで二つに並列してみたら?
105デフォルトの名無しさん
2007/06/03(日) 10:15:44 windows はaffinty maskを使えないの?
106デフォルトの名無しさん
2007/06/03(日) 11:14:45107デフォルトの名無しさん
2007/06/03(日) 12:26:25 環境は、Fedora5にデュアルコアOpteronx2の計4cpuをインテルコンパイラを使って、コンパイルしています。
系を大きくしても(すなわち、スレッド生成頻度をかなり下げても)300%程度で飽和してしまいます。
以前、Redhat+Xeon+インテルコンパイラの時は,2CPUで200%(4CPUではないのであまりよい比較ではありませんが)
計算速度も倍になっていたので、コンパイラの問題なのか、opteronの問題なのか、そのあたりもう少し調べてみたいと思います。
系を大きくしても(すなわち、スレッド生成頻度をかなり下げても)300%程度で飽和してしまいます。
以前、Redhat+Xeon+インテルコンパイラの時は,2CPUで200%(4CPUではないのであまりよい比較ではありませんが)
計算速度も倍になっていたので、コンパイラの問題なのか、opteronの問題なのか、そのあたりもう少し調べてみたいと思います。
108デフォルトの名無しさん
2007/06/03(日) 12:32:32 1CPU から 2CPU にスケールするのと、4CPU にスケールするのとじゃ
全然話が違うからね。
全然話が違うからね。
109デフォルトの名無しさん
2007/06/03(日) 12:57:34 4cpuならうまく組めば1割も落ちないよ
スレッドチェッカーで確認してみな
スレッドチェッカーで確認してみな
110デフォルトの名無しさん
2007/06/03(日) 14:58:41 >>107
OpteronってことはNUMA構成で使ってるってことはないかな?
OpenMPはSMP用だからNUMAだと効率ががた落ちになることがあるよ。
あと趣味でやってるのでなければCPU使用率よりも計算までの終了時間で考えた方がいいと思う。
メモリ競合起こすとCPU100%でも計算速度半分なんてざらだから。
OpteronってことはNUMA構成で使ってるってことはないかな?
OpenMPはSMP用だからNUMAだと効率ががた落ちになることがあるよ。
あと趣味でやってるのでなければCPU使用率よりも計算までの終了時間で考えた方がいいと思う。
メモリ競合起こすとCPU100%でも計算速度半分なんてざらだから。
111デフォルトの名無しさん
2007/06/03(日) 15:24:23 カーネルがスレッドのスケジューリングとメモリページの割当を上手く管理していれば
Dual Core x 2 Socket くらい何とかならないの?
Dual Core x 2 Socket くらい何とかならないの?
112デフォルトの名無しさん
2007/06/03(日) 15:30:27 CPUとSIMDで行列計算をうまく分散してくれるコンパイラはないものか
113デフォルトの名無しさん
2007/06/03(日) 15:42:04 lapackのSIMD化でダメなの?
そんなのはいくらでもあるが
そんなのはいくらでもあるが
114デフォルトの名無しさん
2007/06/04(月) 06:27:01 OpenMP節を入れ子にすると、並列化されなくなってしまいます。
入れ子のOpenMP節を並列化する方法はないものでしょうか?
入れ子のOpenMP節を並列化する方法はないものでしょうか?
115デフォルトの名無しさん
2007/06/04(月) 09:06:41 >>114
OpenMP + nested loopで検索すればたくさんでてくるよ
OpenMP + nested loopで検索すればたくさんでてくるよ
116デフォルトの名無しさん
2007/06/24(日) 15:29:55 インテルのスレッディング・ビルディング・ブロックとOpenMPの違いって何?
117デフォルトの名無しさん
2007/06/24(日) 18:08:38 OpwnMP:
共有メモリ型並列計算機におけるマルチスレッド並列プログラミングのためのAPI
インテル スレッディング・ビルディング・ブロック:
C++用ランタイム・ライブラリー
共有メモリ型並列計算機におけるマルチスレッド並列プログラミングのためのAPI
インテル スレッディング・ビルディング・ブロック:
C++用ランタイム・ライブラリー
118デフォルトの名無しさん
2007/08/20(月) 02:26:56 Windows ServerR 2003 R2 Platform SDK
にopenmpのファイルが入ってるのかと思ったら入って無かった。
Microsoft Windows Software Development Kit for Windows Vista
にopenmpのファイルが入ってた。
ファイルの場所が
Microsoft SDKs\Windows\v6.0\VC\
以下のincludeとlibだから少し戸惑ってしまった。
で、さっそく簡単なプログラムを作って実行してみたらSpybotが反応したんだが。
vcompd.dllにスパイウェアが入ってるのか?
にopenmpのファイルが入ってるのかと思ったら入って無かった。
Microsoft Windows Software Development Kit for Windows Vista
にopenmpのファイルが入ってた。
ファイルの場所が
Microsoft SDKs\Windows\v6.0\VC\
以下のincludeとlibだから少し戸惑ってしまった。
で、さっそく簡単なプログラムを作って実行してみたらSpybotが反応したんだが。
vcompd.dllにスパイウェアが入ってるのか?
119デフォルトの名無しさん
2007/09/06(木) 01:13:00 Microsoft Windows Software Development Kit for Windows Vista
vcredist_x86.exe
この2つでVC2005Expressでも使えた。
vcredist_x86.exe
この2つでVC2005Expressでも使えた。
120デフォルトの名無しさん
2007/09/19(水) 22:49:32 他人の書いた数値解析のプログラムをOpenMP対応にしている度素人です。
まずテストに単にパラレルリージョンを指定しただけのプログラムを走らせたら
パフォーマンスが半分くらいにまで落ち込んで困っています(スレッド数はCPU数以下です)。
しかもパラレルリージョンの範囲が広ければ広いほどパフォーマンスが悪化するのですが
これは当然なのでしょうか?
ちなみにパラレルリージョン内を並列化しても1CPUのときより10%くらい悪いです。
環境はOSはRHEL、インテルのfortranコンパイラです。
まずテストに単にパラレルリージョンを指定しただけのプログラムを走らせたら
パフォーマンスが半分くらいにまで落ち込んで困っています(スレッド数はCPU数以下です)。
しかもパラレルリージョンの範囲が広ければ広いほどパフォーマンスが悪化するのですが
これは当然なのでしょうか?
ちなみにパラレルリージョン内を並列化しても1CPUのときより10%くらい悪いです。
環境はOSはRHEL、インテルのfortranコンパイラです。
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 中国・ロシア両軍の爆撃機が東京方面へ向かう「異例のルート」を共同飛行…核も搭載可能、連携して威嚇か ★8 [ぐれ★]
- 【速報】「女芸人No.1決定戦 THE W」9代目女王にニッチェ! 7年ぶり3度目で悲願の優勝 [牛丼★]
- 「おこめ券は米以外の食品も買える。効果的な活用を」 地元で農水相 [山形県] [少考さん★]
- 【芸能】『女芸人No.1決定戦THE W』 粗品が最後にバッサリ「優勝賞金1000万円にしてはレベル低い大会」 [冬月記者★]
- 今年の流行語大賞 『働いて働いて働いてまいります』が受賞で不快感… 過労自殺の遺族らが会見「家族にむち打つような行為だ」 [冬月記者★]
- いじめ後遺症 15年前のトラウマに苦悩する当事者「夢の中に出てくる」「された側は一生ものの傷」 [♪♪♪★]
- 【実況】博衣こよりのえちえちダンガンロンパ6🧪
- 【実況】博衣こよりのえちえちダンガンロンパ5🧪
- 🏡パン🍞つー✌まる👌見え👊😅👊
- 【朗報】愚鈍な日本入ついに気ずく「高市より進次郎のほうがマシだったのでわ…」 [743999204]
- ブレイキングダウン、ついにやらかす。😰 [153490809]
- 日本人、インバウンド減っても貧乏すぎて国内旅行すら行けないと判明🥺 [399259198]
