X



【GPGPU】くだすれCUDAスレ part7【NVIDIA】 [転載禁止]©2ch.net
レス数が1000を超えています。これ以上書き込みはできません。
0001デフォルトの名無しさん垢版2014/11/20(木) 23:14:46.66ID:jr3oZn27
このスレッドは、他のスレッドでは書き込めない超低レベル、
もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。
CUDA使いが優しくコメントを返しますが、
お礼はCUDAの布教と初心者の救済をお願いします。

CUDA・HomePage
ttp://developer.nvidia.com/category/zone/cuda-zone

関連スレ
GPGPU#5
ttp://peace.2ch.net/test/read.cgi/tech/1281876470/l50

前スレ
【GPGPU】くだすれCUDAスレ【NVIDIA】
ttp://pc12.2ch.net/test/read.cgi/tech/1206152032/
【GPGPU】くだすれCUDAスレ pert2【NVIDIA】
ttp://pc12.2ch.net/test/read.cgi/tech/1254997777/
【GPGPU】くだすれCUDAスレ pert3【NVIDIA】
ttp://hibari.2ch.net/test/read.cgi/tech/1271587710/
【GPGPU】くだすれCUDAスレ pert4【NVIDIA】
ttp://hibari.2ch.net/test/read.cgi/tech/1291467433/
【GPGPU】くだすれCUDAスレ part5【NVIDIA】
http://toro.2ch.net/test/read.cgi/tech/1314104886/
【GPGPU】くだすれCUDAスレ part6【NVIDIA】
ttp://peace.2ch.net/test/read.cgi/tech/1348409867/
0002デフォルトの名無しさん垢版2014/11/20(木) 23:15:41.57ID:jr3oZn27
関連サイト
CUDA
http://www.nvidia.co.jp/object/cuda_home_new_jp.html

CUDAに触れてみる
http://chihara.naist.jp/people/STAFF/imura/computer/OpenGL/cuda1/disp_content

CUDA のインストール
http://blog.goo.ne.jp/sdpaninf/e/9533f75438b670a174af345f4a33bd51

NVIDIAの「GeForce 8800 GT(G92)」と次に控える64-bit GPUアーキテクチャ
http://pc.watch.impress.co.jp/docs/2007/1031/kaigai398.htm

CUDAを使う
http://tech.ckme.co.jp/cuda.shtml

NVIDIA CUDAを弄ってみた その2
http://dvd-r.sblo.jp/article/10422960.html

CUDAベンチ
http://wataco.air-nifty.com/syacho/2008/02/cuda_2044.html

KNOPPIX for CUDA
http://www.yasuoka.mech.keio.ac.jp/cuda/
0003 【東電 69.8 %】 垢版2014/11/21(金) 00:13:37.04ID:kFWiXf0I
>>1
ああ、キミ!また会えたね。久しぶりだ。どうだいあの件は?どうなったか説明したまえな。

神戸市の東、芦屋西宮の知的障害者施設で未成年利用者に性的な行為をして淫行条例で逮捕された三田谷学園元職員の堂垣直人(西宮市老松町)は、結局どういう罪になったの?
被害者家族のケアを芦屋市役所と兵庫県警はちゃんとやったのか?
差別や虐待は環境を選べない子供には関係ない。

http://www.youtube.com/watch?v=JxMzW3ZlV4g&;sns=em


まあ、こっちに座れよ。ゆっくり話そうじゃないか。
0005デフォルトの名無しさん垢版2014/11/21(金) 18:05:42.00ID:qiUQrZk/
syncthreadsとthreadfence_blockの違いが分かりません
syncthreadsだけで十分な気がしますが、どういう時に使い分けるのでしょうか?
0007デフォルトの名無しさん垢版2014/11/22(土) 13:48:05.92ID:S8C7U0PL
>>6
競合防止なんて書いてる?
複数のスレッドが同じメモリに書き込む時はatomicをsyncthreadsやthreadfenceと同時に使わないといけない気がする(誰か教えてください)
0008デフォルトの名無しさん垢版2014/11/22(土) 22:18:58.72ID:Ke1g3qvZ
すみません、誤読しました。
「同じブロック内の全スレッドがこの命令にたどり着く」
まで待つかどうかの違いですね。
0011デフォルトの名無しさん垢版2014/11/25(火) 19:26:42.72ID:kFuypilU
プログラムのカーネル部分がどうしても実行されません(サンプルプログラムでは実行されていました)
どなたか原因に心当たりはありませんか?(私はありません)
ブレークポイントで確認したところカーネルの上下にあるクロックは実行されており、
カーネルだけが実行されていませんでした(カーネルの中へ入って行かないという意味です)

以下が呼び出しで、dim3はグローバルで定義してあります
dim3 blocks((num + max - 1) / max, (num + max - 1) / max);
dim3 threads(max, (1024 + max - 1) / max, 1);

void calculation(void)
{
clock_t start, end;
start = clock();
cal<<<blocks, threads>>>(con, num, points, data);
end = clock();
cout << double(end - start) / CLOCKS_PER_SEC << "\n";
}
0013デフォルトの名無しさん垢版2014/11/25(火) 21:44:27.45ID:kFuypilU
>>12
>11のcalculation()の最後の行にプリントの一文を入れてみましたが
ブロックが(128,128)、スレッドが(128,8)と想定通りでした
(スレッドは1ブロック当たり1024個まで配置可能なのでギリギリセーフなはずです)

忘れていましたが、呼び出し先です
この中にブレークポイントを配置してもプログラムが止まらないという魔の領域となっています
(もちろんnsightのcuda debuggingでデバッグしています)
__global__ void cal(double con, int num, a_data *points, b_data *data)
{・・・}
0015デフォルトの名無しさん垢版2014/11/26(水) 19:30:35.81ID:mOjmGjn5
>>14
>>13に書いた通り、ブレークポイントをカーネルの中に入れて実行されているかどうかを確認しています
描画をするプログラムなので図形が動くか動かないかでも判断できます
0017デフォルトの名無しさん垢版2014/11/27(木) 08:04:41.88ID:7alpN+o4
>>15
CUDAのデバッガ使った事がない(ひたすらprintf)ので
一般論的な事しか言えませんが、
怪しそうな処理をコメントアウトしていったらどうでしょう?
変なメモリアクセスで落ちるとか割とありがちな気が。
0018デフォルトの名無しさん垢版2014/11/28(金) 22:55:16.84ID:JeOcX4pA
おれもカーネルに入らない
ただなぜかcygwinでコンパイルするとカーネルが起動する
なんでじゃ・・・

例のvisual studio2013もインストールしてみたいな〜
0019デフォルトの名無しさん垢版2014/11/28(金) 23:06:00.72ID:JeOcX4pA
>>18だけど
osはwindows8.1
コンパイラはcuda6.5+vs2013 express
カーネルは担当する要素を+1するだけのもの
これをコマンドプロンプトでコンパイルしてもカーネルは動かなかった(?)
動かないと判断したのは結果をmemcpyしてホスト側に返しても+1されてなかったから
もしかしたら正常にmemcpyされてないだけかもしれない

カーネルに入らない人はcygwin使ってみるといいかもね
本質的な解決にはならないけど・・・
0021デフォルトの名無しさん垢版2014/12/03(水) 14:38:19.35ID:GXBajCbw
kernel実行後にcudaGetLastError()でRCを取得
そうするとkernel実行結果が分かる
RCの数値は自分で調べてね
002216,21垢版2014/12/04(木) 22:23:47.78ID:EZ4odEf+
21の情報は役だったかな?
自分の場合(LINUX)、RC=7(too many resources requested for launch)だったので
コンパイルオプションに -Xptxas -vを追加して使用レジスタ数を確認。

結果ハードウェアのレジスタ数を超過したためにカーネルの処理が行われなかったことが判明。
スレッドサイズを小さくして問題解決。
因みに使用レジスタはハードウェアによって変わる。
0023デフォルトの名無しさん垢版2014/12/05(金) 14:06:24.56ID:+nFWXccn
>>22
ちょっと興味があるんですけれど、
カーネルのサイズは動的に決めてるんですか?

前にソースコードにブロック数とスレッド数をべた書きで
大きいサイズを指定したらコンパイルの段階ではじかれた事があったんで。
0024>>15垢版2014/12/05(金) 15:37:53.47ID:fpNGtjbn
>>21
ありがとうすごく役に立ったよ
ここ最近忙しくてpc触れなかったんだ
自分も同じく「error: too many resources requested for launch」だった
原因を調べてみるよ

あと、自動でエラー内容もだせるみたいだね
http://homepage2.nifty.com/takaaki024/tips/programs/gpgpu/cuda.html

>>20
ビジュアルプロファイラーも便利そうだから調べてみるよ
0025デフォルトの名無しさん垢版2014/12/07(日) 18:17:39.03ID:g9DGYGEw
x,y,zの3つの変数から成る構造体配列A,B(同じサイズ)があったとして
BからAへそれぞれ対応するデータを転送する場合

Ax,Ay,Az,Bx,By,Bzという同じサイズの構造体でない配列が6つあったとして
BからAへそれぞれ対応するデータを転送する場合(BxからAxなど)

前者と後者では後者の方が転送速度は上がりますか?
0035デフォルトの名無しさん垢版2014/12/19(金) 18:38:15.45ID:dxBCSCiu
二つ以上のGPUでVBOを使用する場合、データの流れはどうなっているのでしょう?
やはり一旦ディスプレイに接続側のGPU出力データが集められ出力されるのですか?
003835垢版2014/12/20(土) 22:32:39.87ID:ovXiOWlC
>>36
少し気になって質問してみただけで今自分は一つしか持っていません!

もう一つGPUを購入した時の為にvisual profilerを使えるようになっておこうと思い
ビルドした実行ファイルでプロファイラを使用してみたところ「Warning: No CUDA application was profiled, exiting」とエラーが出てしまいました
6.5のツールキットを使用して新しいセッションを作成→ビルドした実行ファイルを選択→設定はデフォルト、としたのですが何がダメだったのでしょう?
nvidiaの説明書を見てもさっぱりです。ヒントだけでもいいので教えてください
0039デフォルトの名無しさん垢版2014/12/21(日) 12:30:22.37ID:C04pqXsd
>>38
cudaDeviceReset() が必要のはず。

Visual Studioで「CUDA X.X Runtime」のプロジェクトを作ったら、
kernel.cu の return 0; の直前のコードに、以下のように書いてある。

// cudaDeviceReset must be called before exiting in order for profiling and
// tracing tools such as Nsight and Visual Profiler to show complete traces.
cudaStatus = cudaDeviceReset();
004035垢版2014/12/21(日) 22:57:23.15ID:McLr4XTH
>>39
ループしているプログラムなのでエスケープキーを押すと後処理関数をatexit関数で呼び出して終了するようになっています
その後処理関数の中にcudaDeviceReset();を入れているのですがこれではダメなようです
それともcudaError_t cudaStatus = cudaDeviceReset();としてcudaStatusをどこかへ渡すのでしょうか?
0041デフォルトの名無しさん垢版2014/12/22(月) 00:14:29.09ID:6pNe5aqW
>>40
とりあえず、>>39を新規プロジェクト作ってプロファイラの
動作を確かめてから、あらためて自分のソースコードに反映すれば?
0042デフォルトの名無しさん垢版2014/12/23(火) 15:40:43.82ID:bsnZ8h6l
>>41
新規プロジェクトでサンプルプログラムが生成されるのを忘れていました
おそらくサンプルのプロファイルに成功したので自分のプログラムに反映させようと思います
ありがとうございました
004342垢版2014/12/24(水) 18:51:30.92ID:/5m6EieY
一応書いておきます
調べてみた結果、必要なものはcudaDeviceReset();を呼び出すことのみでした
自分のプログラムがプロファイル出来なかった原因は.dllが.exeと同じ場所に無かったからでした
0044デフォルトの名無しさん垢版2014/12/24(水) 20:32:20.58ID:6fZpwBGv
並列化についての質問です
スレッドやブロックを増やしてもあまり計算速度に差が出ないのですがどのような理由が挙げられますか
0046デフォルトの名無しさん垢版2014/12/24(水) 21:07:44.58ID:6fZpwBGv
最初は一つのスレッドにつき4回ほどループさせ計算をしていました
その後、スレッド数を2倍にしてループ数を半分の2回しました
計算速度は2倍になるだろうと予想していましたが、あまり変わりませんでした
0047デフォルトの名無しさん垢版2014/12/24(水) 21:23:52.28ID:SBHK+d/x
ハード的に同時に実行できるスレッドは有限なんだから、それ以上スレッドを増やしても
物理的に速くなりようがない。
0049デフォルトの名無しさん垢版2014/12/24(水) 22:50:48.00ID:3hqu78L7
スレッドが多ければ、メモリアクセスでスレッドが止まっている間
cudaコアは別のスレッドを実行できる
0050デフォルトの名無しさん垢版2014/12/27(土) 01:57:38.03ID:u9BI3CqV
基本的にはcudaコアの数だけしか並列計算出来ないのですか

だけしかと言ってもコアは何百もありますが
0051デフォルトの名無しさん垢版2014/12/27(土) 06:52:06.91ID:fxVjSbuk
ある瞬間、実際に並列に処理されているということと、理論上並列に扱われるということは別の話ですよ

上のレスにもありますが、計算速度的には実際に処理を行うヤツが足りていなければそこで頭打ちになるのは当然かと
0053デフォルトの名無しさん垢版2014/12/28(日) 20:39:13.97ID:52BL0aAq
550TIで使っていたプログラムを750TIで走らせて見たところ1.5倍ほど遅くなってしまいました
何故でしょうか?
0057デフォルトの名無しさん垢版2014/12/29(月) 12:03:33.25ID:oV4aoJAy
>>56
本当にしょぼかった。陽子ビームぶち込みたい。
どうやらマクスウェルさんは演算用には向いていないようですね
0059デフォルトの名無しさん垢版2014/12/31(水) 21:08:03.80ID:3b0Wn462
CUDA初学者です
cudaBindTexture2D()のpitchとoffsetは何を表しているのですか?
手元の書籍のサンプルから推測するに
pitchは一次元の配列を二次元のテクスチャに入れる場合の折り返し地点のようなもの
でしょうか?それならwidthとhighだけでも十分ではないかと言う疑問も出てきます。

そして一番の疑問がテクスチャメモリの存在です。
いくら二次元、三次元配列が使えるとは言え512バイトしか容量のないテクスチャメモリは64キロバイトもあるコンスタントメモリに劣るのではないでしょうか?
長々と失礼いたしましたm(_ _)m
0061デフォルトの名無しさん垢版2015/01/01(木) 12:48:51.81ID:82JnHkZd
>>60
どっちも使えるなら、実験して早い方を採用
同時に並んでいるスレッド数を増やしてcudaコアが遊ばない状況
を作り出すことが重要

ストリームの使い道は異なるカーネルの並列実行だと思ってる
0063デフォルトの名無しさん垢版2015/01/03(土) 13:07:05.02ID:yWVdPt25
970/980は確かにゲームのパフォーマンスは上がってるが帯域減ってるから
GPGPU用途では微妙になってしまったな
0064デフォルトの名無しさん垢版2015/01/09(金) 00:33:57.02ID:Iq4Pw+IC
Toolkit 6.0 + VS 2008から
Toolkit 6.5 + VS 2013に移行したら
遅くなっちゃったんだけど、そういう人ほかにいる?
0065デフォルトの名無しさん垢版2015/01/12(月) 00:15:12.48ID:crrCnhEj
CUDAの日本語ページって4.0とかの古い情報ばっかりじゃね
6.0/6.5では全然仕様が違ってて全然使えない
0066デフォルトの名無しさん垢版2015/01/16(金) 07:53:04.52ID:IHSf0jGJ
CUDA7.0 RC
0069デフォルトの名無しさん垢版2015/02/06(金) 21:35:53.90ID:72/Q/UeS
ここ何週間かデバッグを続けているのですが原因を突き止めることが出来ません
初学者がはまりやすいミスやデバッグのこつなんかを教えてもらえませんか?
明らかなバグなら原因を突き止めやすいのですが、かなり微妙なバグなのでなかなか見つけられず困っています
0071デフォルトの名無しさん垢版2015/02/07(土) 13:10:14.61ID:4cvxubK6
syncthreadとか?
if文の中に書いてたりすると同期ずれが起こったりするなー
他には確保してないメモリへのアクセスとか?

>>70の通り、printfとかで、配列の添字とか値を表示するしかないのかな?
0072デフォルトの名無しさん垢版2015/02/08(日) 15:23:01.85ID:E04CIgi2
>>70
>>71
ありがとうございます
1セットの計算量があまりにも多いのでprintfの方法は難しいです
シンクロや範囲外アクセスもありませんでした

原因が分かっちゃったかも知れないので質問です
中間計算結果→atomicAdd
中間計算結果→配列→atomicAdd
こんな風に同じ数値を使った計算でも一度配列を通してしまうとatomicAddによって追加された計算結果に差が出たりしますか?
0074デフォルトの名無しさん垢版2015/02/08(日) 21:32:20.44ID:BpjOkBmf
>>72
ちょっと面倒だけど、要素が多い場合は減らしてやってみるとか、どうだろうか?

何はともあれ、原因判明したみたいで、おめでとう
0078デフォルトの名無しさん垢版2015/02/17(火) 21:40:32.15ID:K8c74Rhe
>>53
750TIでGPGPUって考えていたけど、750TIって2世代前の同ランクぐらいの550TIより性能悪いのか。
一般ゲーム用VGAではGPGPU能力ってたいして要らないから落としたのかな

いろいろなゲーム用VGAの単精度、倍精度の能力が載ったホームページ教えてください
0079undefined垢版2015/02/19(木) 11:23:20.97ID:aqLRWkl1
質問☆
cudaってドライバインストして、画像表示をcuda設定にするだけでは
効果ない?
0080デフォルトの名無しさん垢版2015/02/19(木) 14:30:54.02ID:iKdaAUCi
>>78
FP32とFP64の一覧表ならこれとか。
ttp://www.geeks3d.com/20140305/amd-radeon-and-nvidia-geforce-fp32-fp64-gflops-table-computing/

ボトルネックになりうる点は他にもあるから、Compute Capability毎の仕様の違いも結構重要だと思う。
0081デフォルトの名無しさん垢版2015/02/19(木) 23:45:36.57ID:ngPIgbTR
maxwellさん自体にに倍精度が無いようだから
一世代前のkeplerさんか次世代のpascalさんを選べば良いんじゃないかな
0082デフォルトの名無しさん垢版2015/02/19(木) 23:54:19.28ID:Lt8lBsrZ
>>80
有難う。750TiのFP64悪すぎだな。
なんか大衆向け用でGPGPUするならFP32よ、FP64は使わないでだな。
0083デフォルトの名無しさん垢版2015/02/20(金) 04:05:21.12ID:fPdGyDpl
>>81
KeplerはMaxwell以上にピーキーだったような。
自分の用途がはっきりしていて、それがKeplerやMaxwellに向いているならありだろうけど。
64bit変数をほとんど使わなくても、不向きな処理ではGTX 680が570に惨敗したりする。

CUDAの開発環境とか情報量に魅力を感じて、あえて今から始めてみるという人に勧めるとすれば、個人的には
投げ売り続行中のGTX 570や580で、余裕があるなら型落ちCPU・マザボ・メモリのセット等と
組み合わせてCUDA専用マシンを用意かな。

>>82
それは差別化とか、グラフィック用途でのワットパフォーマンスとかで仕方がないかと。
0084デフォルトの名無しさん垢版2015/02/20(金) 08:52:57.87ID:xG3c1huj
keplerはinteger bit shiftが弱いGK110(tesla)以外は
maxwellはkepler比で2倍のスループットになってる
0085デフォルトの名無しさん垢版2015/02/22(日) 18:45:23.46ID:JhGx5uct
適当なプログラム作ってみても
maxwellの方がはやいね

shared memoryが倍になったのも大きいなぁ
0086名無し垢版2015/03/07(土) 10:52:38.85ID:UBzBpgz5
スレチなら申し訳ない
当方、モバイルでCUDAを使用したいけど
安い方法はどれが良いと思います?
(速度はそこそこで良く、外でテストして
 パワーがいる場合はデスクトップを使用するつもり)

モバイル用は安く上げたいので
Chromebookかタブレットで探した方が良いですかね?
奇をてらってJetsonのtk1にACアダプタ用のバッテリーを積むとか
(可能かどうかわからないですが)
ちなみにゲームはやるつもりありません。
0088デフォルトの名無しさん垢版2015/03/08(日) 10:25:35.13ID:TYY6zzsE
レスありがとうございます
安くあげたいので予算的に厳しいかと
最初だけ計算量は多いですけど
要所ごとに定数化すれば、その後は計算量がへるかと思っているので外での使用は少ないデータ量でプログラムチェックができればいいかなと考えています。
K1がのったタブレットも安いのでそこから考えてみようと思います
ありがとうございました
0090デフォルトの名無しさん垢版2015/03/18(水) 09:22:22.19ID:33RtPIwm
単精度が7TFLOPS、倍精度が0.2TFLOPSで良いんだよな??

詳しい事は良く分からないんだけど倍精度ってそんなに使わないものなの?
PhysXっていう物理エンジン使ったりするのに
0091デフォルトの名無しさん垢版2015/03/18(水) 10:23:22.30ID:C11qPS4w
>>90
ゲームだと単精度で十分だったりするからじゃない?
もともとゲームのために作られたような物だから、倍精度の性能なんかあまりこだわってないと思う
0093デフォルトの名無しさん垢版2015/03/19(木) 07:39:40.96ID:M0RYJxHF
Dear Developer,

The CUDA? 7.0 Production Release is now available to the public. Run your application faster with this latest version of the CUDA Toolkit. It features 64-bit ARM support and the simplified programming model enabled by Unified Memory. Highlights include:

New cuSOLVER library
? Accelerates key LAPACK routines, 12x faster direct sparse solvers

New C++11 language features
? Increases productivity with lambdas, auto, and more

Runtime Compilation
? Enables highly optimized kernels to be generated at runtime

Download the CUDA 7 Production Release at www.nvidia.com/getcuda

Learn more about CUDA 7 by attending these webinars:

CUDA 7 Feature Review
Date/Time: Friday, April 10th at 10:00 AM PDT
Register: https://cc.readytalk.com/r/4b0lwgeqgzrk&;eom

CUDA 7 Performance Overview

Date/Time: Wednesday, April 15th at 11:30 AM PDT
Register: https://cc.readytalk.com/r/empyu1qc65l6&;eom

Best regards,

Nadeem Mohammad
NVIDIA Developer Relations Team
0096デフォルトの名無しさん垢版2015/03/25(水) 21:19:25.13ID:WRhchtaz
Driver API使ってコンパイル済みのptxを実行するプログラムを作ろうとしているんだけど、
64bitのホストコードから32bitのptxを実行することってできるんだっけ?
0097デフォルトの名無しさん垢版2015/04/10(金) 02:15:05.70ID:C60yUXFO
nvidia-smiでutilizationやmemory usageを確認できると思うのですが、全てのパラメータを確認できるのはtesla、quadro、Titanです。
Geforce系のGPUで、utilization、各プロセスのmemory usage等を確認するにはどうすればいいでしょうか?
0100デフォルトの名無しさん垢版2015/04/13(月) 00:39:39.73ID:NPPeHBbv
少なくともCUDA対応している必要があるが、基本的にGeForce8シリーズ以降で動くはず。
特定の機種について知りたいならGeeks3Dのデータベース検索してみるとか。
しかしスレチ。
0101デフォルトの名無しさん垢版2015/04/13(月) 16:29:29.85ID:EBHbrztF
thinkpadに入ってるquadro K620Mはcudaのサポート無いんだな
インストールしようとしてワラタ
0102デフォルトの名無しさん垢版2015/04/14(火) 18:39:28.21ID:hgZdA2dw
Linux(CentOS6)の環境でTITAN BLACKでCUDA(Ver.6.5 or 7.0)使ってるのだけど、計算走らせると
NVIDIA X Server SettingsのPerformance LevelsのLevelが3から2に落ちてMemory Transfer Rateが7000Mhzから6000Mhzに落ちてしまう。
で結果的にノーマルTITANと性能が同じになってしまう。このメモリクロックを固定させることはできませんかね?
ちなみにTelsa K20 での固定クロックの方法はnvidia-smiがTITANに対応してないらしくできなかった。
ちなみにPreferred Modeは「Prefer Maxmum Performance」になっていて、
CUDAで計算しなければLevel3でメモリクロックも7000Mhzとなっています。
0104デフォルトの名無しさん垢版2015/04/15(水) 11:49:47.50ID:DmeNPmdM
>>102
何時間もフルで使ってるならまだしも、GPU叩いた瞬間に7000Mhzから6000Mhzに落ちるって、TITAN BLACKの公称メモリクロック「7GHz」ってのは詐欺にならないか?
これじゃノーマルTITANと同じ性能・・・
0105デフォルトの名無しさん垢版2015/04/15(水) 23:05:57.76ID:+7B/lj1n
環境がわからんからなんとも言えんが、
どうしても固定したければどっかからbiosを引っ張ってくるしかないね。
0106デフォルトの名無しさん垢版2015/04/16(木) 13:27:15.95ID:xeug049T
ん?TITANのクロック制御はマザーのBIOSが管理してるのか?
0108デフォルトの名無しさん垢版2015/04/23(木) 12:42:01.23ID:GK/TBYtY
pycudaで既存のコンパイル済みのオブジェクトとリンクして
実行させるにはどうすればいいのでしょうか
0110デフォルトの名無しさん垢版2015/04/27(月) 00:54:11.64ID:XOkfLgXW
最近のマザーボードってビデオカード2枚刺して
両方に計算させることもできるの?
自分のcore2duoのパソコンだと1つしか刺す場所ないけど
最近のddr4を使うマザーみると
それらしき場所が3つぐらいあるから3並列計算できるってことかな?
0112デフォルトの名無しさん垢版2015/04/30(木) 22:40:28.09ID:4E7PVA8Y
vexclのサンプルコードをcudaでコンパイルしようとしてるんだけど
エラーだらけ
何か依存パッケージが足りないのかな?
0113デフォルトの名無しさん垢版2015/04/30(木) 22:46:37.84ID:4E7PVA8Y
.bashrcに設定する変数名が
CUDA_PATH
だったり
CUDA_ROOT
だったりみんな違う

なんで統一しないのか
0114デフォルトの名無しさん垢版2015/05/07(木) 18:56:17.28ID:oEZIeMhu
vexclについてくるexampleプログラムの中のベンチマークってプログラムが面白い
このプログラムのベンチマークによると
GT430とかいう古いビデオカードなのに最近のCPUの10倍の計算速度でてる
0115101垢版2015/05/13(水) 12:03:41.64ID:3UCLt7KQ
thinkpad w550sのquadroでもcudaなんも問題なかった
やっと勉強できる
0116デフォルトの名無しさん垢版2015/05/13(水) 19:42:38.26ID:SKtXN3hT
3D映像でパストレーシングやモンテカルロ法を行いたい場合、光線とシーン中
のあらゆるポリゴンとの交差を判定し、条件分岐を行う必要があります。
しかし、GPGPUは条件分岐が遅いらしいので、もしかするとCPUと役割分担を
行うべきなのでしょうか?
例えば、シーン中のポリゴンとの交差判定はCPUでやった方が良いとか?
0117デフォルトの名無しさん垢版2015/05/13(水) 23:31:21.84ID:xMqj1fKt
if
  A
else
  B
end
のような文なら、AとBは逐次の処理になる

if
  A
end
なら、Aを行わないスレッドは待つだけだから問題ない

もし3項演算で解決できる条件分岐なら3項演算子を用いて書く
0118デフォルトの名無しさん垢版2015/05/14(木) 07:59:10.95ID:CyZl9DuQ
>>117
>AとBは逐次の処理になる

これはどういう意味でしょう?
AとBが内部的には必ず両方とも実行されてしまうと言うことでしょうか?
0119デフォルトの名無しさん垢版2015/05/14(木) 09:14:40.23ID:CyZl9DuQ
Intel系CPUの場合、確か cmov などという命令は、bool 値が1の時だけ
転送するのだったと思います。そういう命令は無いんでしょうか?
仮に何かあったとして、CUDA や OpenCL でどうやってそのような
「専用命令」を生成する事は可能でしょうか?
0120デフォルトの名無しさん垢版2015/05/15(金) 01:05:26.23ID:WYo5pZkW
分岐命令の代わりに使えるプレディケート付き命令があるかという話なら
それは存在するし、分岐のあるコードではコンパイラさんがよしなにやってくれる。
と、ヘネパタ本には書いてあった。
0121デフォルトの名無しさん垢版2015/05/15(金) 08:19:31.91ID:pyCNH+0F
>>120
ありがとうございます。

では、「>>118」の方はどうですか?
0125デフォルトの名無しさん垢版2015/05/19(火) 21:33:47.52ID:spimwXxa
今まで一つのソースファイルで書いてきたのですが、いい加減見づらくなってきたのでソースファイルを分けてみたところエラーがでたので質問させてください
extern __constant__ unsigned short v[n]; //nは#defineで定義しています。
メインのソースファイルで
__constant__ unsigned short v[n];
と定義し、ビルドすると「メインの方で再定義されている」というエラーが出てしまいます

他にも、__device__ double atomicAdd の定義をサブのソースファイルに書くと
ptxas fatal : Unresolved extern function '_Z9atomicAddPdd'
とエラーが出てしまいます。どうか解決方法を教えてください。

環境は
NVIDIA Nsight Visual Studio Edition v.4.2
CUDA 7.0 Toolkit
のはずです
0126125垢版2015/05/19(火) 21:42:34.97ID:spimwXxa
×CUDA 7.0
○CUDA 6.5
でした
0127125垢版2015/05/20(水) 16:28:14.38ID:MP+tATlH
CUDA5.0以降ではrdcを「はい」にするとファイルの分割が出来るという情報を得たのでさっそく試してみたところ
>>125のエラーは無くなったのですが
1>sub.cu.obj : error LNK2005: "long __cdecl genrand_int31(void)" (?genrand_int31@@YAJXZ) は既に main.cu.obj で定義されています。
上記のような二重定義エラーがいくつか出てきました

また、ヘッダファイルの拡張子を.cuhとしている方を見かけたのですが、.hとの違いはあるのでしょうか?
0128デフォルトの名無しさん垢版2015/05/20(水) 22:26:00.46ID:tQNdJIhT
デバイス関数ってインライン展開されるんじゃなかったっけ。
でもって、他のファイルからは使えなかったのでは?
0129125垢版2015/05/20(水) 23:53:16.57ID:MP+tATlH
>>128
ファイルを分割出来ないとなるとすごく不便になので、何かしらの方法があるのでは?と思っています
0130デフォルトの名無しさん垢版2015/05/21(木) 04:25:30.08ID:Dige6mTv
とりあえずCUDAの日本語wikiがあるから、そこの分割コンパイルの項目をみたらどうかな?
OSによっては解決できるかも
0132125垢版2015/05/21(木) 17:23:47.43ID:25nDpRt2
レスありがとうございます

どうやら>>127のエラーはCUDAとは関係なさそうなのでC++のスレで聞いてきます
0133125垢版2015/05/24(日) 22:10:36.84ID:FupD4mQN
>>127の方法で分割コンパイルに一応成功しました!
一応と言ったのはrdcを「はい」にした場合と「いいえ」にした場合とでプログラムの挙動が少し変わってしまうのです
今書いているプログラムは何億回もの計算結果を足し合わせていくものなので、誤差の蓄積による影響を受けていると思います
コンパイルの方法を変えた(?)事で誤差の蓄積が変化(?)し、プログラムの挙動が変わったということなのでしょうか?
コンパイルと誤差がどう関係するのかは分かりませんが
0134125垢版2015/05/24(日) 22:19:49.55ID:FupD4mQN
>>「はい」にした場合と「いいえ」にした場合
ファイルを分割するともちろん「いいえ」では動かないので、一つのファイルで完結しているプログラムでの話です
0135デフォルトの名無しさん垢版2015/05/26(火) 06:54:20.42ID:VVQAbCqm
最適化の仕方が変わるのかもね
誤差が出て困るなら、なるべく誤差が少なくなるような組み方を考えるしかない
0136デフォルトの名無しさん垢版2015/05/26(火) 07:49:49.21ID:3GnQrGbV
誤差にも種類があるが・・・
浮動小数点演算等の誤差なのか
同期ミスによる誤差なのか・・・
0137デフォルトの名無しさん垢版2015/05/26(火) 22:03:46.38ID:f2qMZr+T
>>135
かもね
今はatomicAddをそのまま使っているので、情報落ちをなんとかして誤差は減らす予定です

>>136
原因と結果の関係性が分からないのでなんとも言えないです
ちなみに同期ミスによる誤差とは何でしょうか?
0140デフォルトの名無しさん垢版2015/06/17(水) 22:35:16.09ID:uTokHIG4
今年はGTC Japan開催のリリース出ないな
例年ならもう出ているのに
中止かもしくは時期がずれたのかな
0142デフォルトの名無しさん垢版2015/06/18(木) 13:04:11.34ID:9mEYqdNq
Visual studioでCUDAプログラムを作成しています
Nsightでstart CUDA debuggingからプログラムを走らせた時だけプログラムが動かないんですが
どのような原因が考えられますか?

以下の条件ではすべて正常に動作・終了します
デバッグなしで開始(debug,release共に)
start CUDA debuggingでブレイクポイントを仕掛けて1スレッドずつ動かす
0143142垢版2015/06/18(木) 13:16:06.49ID:9mEYqdNq
追加です
プログラムの詳細ですが
ある無向グラフに対して,与えられた2点が連結かどうか調べるプログラム
枝重み0と仮定してダイクストラのアルゴリズムを用いて判定しています.

1ブロックにつき16スレッドが同時に走ります.
その判定関数をfoo()とすると

if( blockIdx.x == tmp )
foo();
というように一つのブロックのみで扱うようにすると
tmpがどのような値でも正常に動作するのですが
2ブロック以上でfooに行くようにすると動かなくなります
エラーがでないことと,printfによるチェックですが
配列のアドレスも問題ありません
0146デフォルトの名無しさん垢版2015/06/22(月) 21:23:14.11ID:FYteK6ai
デバイスメモリの内容を一時的にホスト側からアクセスしたいんですが、OpenCLでいう
clEnqueueMapBufferに相当する機能はCUDAにあるんでしょうか?
ちょっと調べてみたんですが、cudaHostRegisterは方向が逆だし、cudaMallocManagedは
既にあるデバイスメモリにアクセスするものではなさそうなので。
cudaMemcpyで読み出して終わったらまた書き出すという方法しかないんでしょうか。
0147デフォルトの名無しさん垢版2015/06/23(火) 13:14:37.10ID:DUXK3D31
OpenCLを知らないので外してるかも知れないけど、
基本的にはcudamemcpyするしかない。

CUDA6.0からUnified Memoryっていう機能が入って、
GPU上のメモリをホストメモリと同じように読めて、
自動的に同期を取ってくれる機能。用途によっては使えるかも。
0149デフォルトの名無しさん垢版2015/06/25(木) 22:41:21.74ID:t3bjYB8L
今日はじめてCUDAを入れた者ですが、VS2013でサンプルをビルドするとerror MSB3721…\simpleTemplates.cu"" はコード 1 で終了しました
って出るんだが何か設定とか必要ですか?

あとインストールの確認(?)でコマンドプロンプトでnvcc -Vのコマンド入れてもアクセスが拒否されましたと出る…
これが原因ですかね?

いろいろ調べてみましたが、これといった解決方法はなかったので助けて下さい。
よろしくお願いします。
0150149垢版2015/06/25(木) 23:09:29.97ID:t3bjYB8L
>>149です。
すいません自己解決いたしました。
ウィルスソフトが邪魔をしていたようです・・・
スレ汚し申し訳ございませんでした。
0151デフォルトの名無しさん垢版2015/06/26(金) 01:26:56.82ID:f2ddT7MK
750Tiってあんまりいけてないのか…
CUDA試したくてあんまり調べずに衝動買いしてしまった
900台にした方が良かったのかなあ
0152デフォルトの名無しさん垢版2015/06/26(金) 08:33:52.91ID:h0LNB3lK
ゲームするならかなりいけてるが倍精度はしょぼいな
倍精度が欲しいならfermiかgk110コアのがいいのか?
ゲームしないならamdでopenCLの方がコスパ良さそうなんだがどうなの?
0154デフォルトの名無しさん垢版2015/06/26(金) 11:48:22.16ID:JVzNXP51
CUDA7入れたのですが、
cublas.hが見つからないと出てしまいました。

cublas使うには他に何か必要なのでしょうか?
0156デフォルトの名無しさん垢版2015/06/26(金) 13:07:12.91ID:JVzNXP51
ありがとうございます。
みつかりました
0157デフォルトの名無しさん垢版2015/06/26(金) 23:47:30.95ID:f2ddT7MK
>>152
>ゲームするならかなりいけてる

こういうのがイマイチよくわかりません
単純にFLOPSで性能を見ちゃいけないのでしょうか
ゲームやGPUプログラミングに向いてるかどうかってどうやって判断してるんでしょうか
0158デフォルトの名無しさん垢版2015/06/27(土) 03:38:35.85ID:y7j5+l1E
>>157
プロはGPGPUするのにゲーム用のGFやRadeonをはあんまり使わない
趣味レベルでOKのGPGPUならGPGPUがオマケであるゲーム用(ゲームドライバ)のVGAでも良いが。
Xeonが一般的な業務サーバーに普通のデスクトップPCをいっぱい使うなことは
しないのと同じ。あと、FLOPSは目的のGPGPUするのに必要なレベルあれあば良い。
低FLOPSでOKなGPGPU処理に超高FLOPSのものを使うって趣味だし
0159デフォルトの名無しさん垢版2015/06/27(土) 09:17:14.69ID:f1QkQQtg
プロだってコスパ考えるだろ。
倍精度演算性能と信頼性で妥協できるならゲーム用GPUの方が圧倒的に安いしな。
0160,,・´∀`・,,)っ-○○○垢版2015/06/27(土) 23:23:04.05ID:XHzW5ECE
まあ中国の天河1号はFireStreamですらないRadeonのデュアルGPUカードを大量搭載したが
結局実用にならなくて次の更新で全部Teslaに差し替えたからね
額面のFLOPS数だけで実用性は評価できない
0161デフォルトの名無しさん垢版2015/06/28(日) 09:51:05.56ID:MpgQMMEq
中国はスパコンにTESLAとか使えなくなったから、NVIDIAやインテルは大口顧客を失った。
0162デフォルトの名無しさん垢版2015/06/28(日) 16:33:48.10ID:zku7pwa+
>NVIDIAやインテルは大口顧客を失った。
その損失分は米国内の大型スパコンでの便宜をはかることで補填されてるから企業としては差し引きOKとなったはず
0163デフォルトの名無しさん垢版2015/06/29(月) 08:06:36.49ID:FIYCVjDt
windows7でchainer試そうとすると
pycudaでなんか不具合出る
0166デフォルトの名無しさん垢版2015/06/30(火) 16:00:18.94ID:vWTsPJO/
cudaってMFCのcppから呼べますか?
サンプルで.cuから.cppを呼んでるのは見つけたんですが。
0167デフォルトの名無しさん垢版2015/06/30(火) 17:26:54.94ID:vWTsPJO/
あーexternで呼べました
0168デフォルトの名無しさん垢版2015/07/02(木) 01:47:05.99ID:cql5ELb9
>>165
単精度演算性能 コア数×クロック数×2
倍精度演算性能 単精度演算性能/24(Kepler), 単精度演算性能/32(Maxwell)
として計算すると、
780Tiが2880×875×2/24=205GFLOPS
980Tiが2816×1000×2/32=172GLOPS
だから、遅くなるんじゃね?
0169デフォルトの名無しさん垢版2015/07/02(木) 15:34:36.77ID:bfg1NSwR
CUDAって仕様上できないこともコンパイルとおるのか〜
0170デフォルトの名無しさん垢版2015/07/02(木) 23:26:03.68ID:Pfy0Io9G
Nvはゲームにゲーム用VGAには倍精度演算イラネから省くって流れだから
ゲーム用VGAで倍精度演算性能ほしいならRadeにしたほうがいいよな
0173デフォルトの名無しさん垢版2015/07/05(日) 22:31:36.27ID:tW1t1zZP
全く値段見ないでカンで言うけど
中古の無印TITANならウンコに混じったコーン位の値段で売ってんじゃないの?
0174デフォルトの名無しさん垢版2015/07/07(火) 16:43:12.64ID:y9jINuhY
CULAのエラーでpos 1022ってなんですか?

LAPACKドキュメントを見よとか書いてありますが、見当たりません
0175デフォルトの名無しさん垢版2015/07/08(水) 10:49:51.33ID:UJb9gmN3
CUDA7.5 RC
0176デフォルトの名無しさん垢版2015/07/08(水) 20:10:01.47ID:h2HOA+i0
最近始めたんだけどversionって無理して最新にする必要無いのかな
7入れるのに結構苦労したんであんまり変えたくない
みなさんはガンガン上げてく感じですか?
0180デフォルトの名無しさん垢版2015/07/27(月) 20:50:16.33ID:0YcBUgDv
分割コンパイルができないんだけど、どうしたらいいんだろ?
ビルドどころか1ファイルのコンパイルもエラーになる

vs2013ce, cuda7.0, fermi, debug,x64

D:\cuda_test\cuda_test>
"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\bin\nvcc.exe"
-gencode=arch=compute_20,code=\"sm_20,compute_20\" --use-local-env --cl-version 2013
-ccbin "C:\Program Files (x86)\Microsoft Visual Studio 12.0\VC\bin\x86_amd64" -rdc=true
-I"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\lib\x64"
-I"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\include"
-I"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\include"
-G --keep-dir x64\Debug -maxrregcount=0 --machine 64
--compile -cudart static -g -DWIN32 -DWIN64 -D_DEBUG -D_CONSOLE -D_UNICODE -DUNICODE
-Xcompiler "/EHsc /W3 /nologo /Od /Zi /RTC1 /MDd "/wd 4819""
-o x64\Debug\cuda_body.cu.obj "D:\cuda_test\cuda_test\cuda_body.cu"

1> nvcc fatal : A single input file is required for a non-link phase when an outputfile is specified
0181デフォルトの名無しさん垢版2015/07/27(月) 20:55:02.52ID:0YcBUgDv
nvcc fatal : A single input file is required for a non-link phase when an outputfile is specified
コンパイルフェーズで出力ファイル指定するときは1ファイルでやれっていうけど、出力ファイル指定しないと何にも出力されないし、
cuda5.0以降は分割コンパイルは対応してるよね? rdcもdlinkも指定してるし何がいけないんだ
0182デフォルトの名無しさん垢版2015/08/02(日) 15:01:41.54ID:LFE7g0os
別にCUDAじゃなくても良いんですが、
GPUで直接JPEGを、DirectXのテクスチャに展開して、そのまま表示したいです。
そういったライブラリって無いですか?
かなり需要がありそうなんですが
0184183垢版2015/09/08(火) 02:08:23.68ID:V+WRCKAL
少し分かったことがありました
グローバルで
const int i = 1;
const double d = 1;
と定義すると
__device__内でiは使えてdは使えませんでした
error: identifier "d" is undefined in device code
とエラーが出てしまいます
どうしてdouble型だとエラーになるのでしょうか?
0186デフォルトの名無しさん垢版2015/09/14(月) 22:17:35.79ID:2IqUP8/H
floatはダメでlong intはOK
だめならだめで引数とすれば良いんですけどね
整数だけというのはcudaの仕様ですかね?
0187デフォルトの名無しさん垢版2015/09/15(火) 09:01:24.15ID:10B5WSYL
なんでだろうな。全く調べていないので100%想像だけど、
GPU上にstatic変数が確保されているとは思えないから、
(無いとは言い切れないが)
コンパイル時に定数展開しているんだろうな。
C++の言語仕様としてconst intは定数展開していいし、
(厳密な言い方だと間違いかもしれん)
クラスのstaticメンバにしても宣言のみで定義が不要ってのがあるから、
それに則った処理なんじゃなかろうか。
0188デフォルトの名無しさん垢版2015/09/15(火) 14:26:04.38ID:8ArN6+Sd
Visual Studioでエラーでた
似たような状況の人いたら教えてほしいです

環境
CPU core i5 4570
GPU GTX 980

Visual Studio 2010 Ultimate
CUDA v7.0
NSIGHT v5.0
使用言語はC
エラーが起こる状況↓
__device__ function1(){
int array1[ 1000 ];
function2( array1 );
}
__device__ function2( int *array1 ){
int array2[ 1000 ];
for( int k = 0 ; k < 1000 ; k++ ){
array1[ k ] = rand(); // rand()は何らかの乱数を返す関数
array2[ k ] = rand();
}
}
function1を呼び出したとき,時折だがarray1の値がarray2の値と同じになってしまう
エラーが起きた状況で以下のことは確認済み
・array1,2ともにグローバルメモリに確保されている
・array1とarray2のポインタは異なっている
・rand()が異なる値を返している
また,array2の宣言をfunction1で行い,function2にarray2のポインタを返すことで回避ができる
0189デフォルトの名無しさん垢版2015/09/15(火) 14:29:46.25ID:JgRUCOJR
全然知らんけど、スタックオーバーフローじゃね?
static int array2[1000];にすれば解決
0191デフォルトの名無しさん垢版2015/09/27(日) 11:58:09.30ID:X6SDQWu/
VS2013 cuda7.0で
intelisenseがcudaの関数やthreadIdxなんかに赤線つけるんだけど
intelisenseを無効化させる方法ではなく、対応させられない?
0192デフォルトの名無しさん垢版2015/09/29(火) 16:27:34.89ID:++1fLQj6
CUDAって余計な決まり事が多くてGLSLよりわかりにくくなってると思うんだけど
0194デフォルトの名無しさん垢版2015/10/01(木) 00:53:18.68ID:44xt2+tf
cuda_header.hに以下をまとめて、これを.cuでインクルードしてるんだけど、インテリセンスがエラーとして表示したままなんだ。
また従来のcutil系の代わりのhelper関数のヘッダが開けないともなぜか出る。(プロジェクトの追加のインクルードDirには指定してあるんだが・・)
でもコンパイルはされるんだよ・・・。インテリセンスのキャッシュクリアしようと考えたんだが2013のメニューにはないみたいだし・・。

#include <cuda.h>
#include <cuda_runtime.h>
#include <device_launch_parameters.h>
#include <device_functions.h>
#include <math_constants.h>

#include <helper_cuda.h>
#include <helper_math.h>
0195デフォルトの名無しさん垢版2015/11/11(水) 20:55:36.03ID:FAkUvGGr
超初歩的な質問ですがよろしければお願いします
環境 windows7 64bit Visual Studio 2013 community CUDA7.5
CUDAインストール時にはVS2013をインストール済みと判定するものの
コマンドプロンプトからnvccでサンプルを実行させると
nvcc fatal : nvcc cannot find a supported version of microsoft visual studio
とエラーが発生します
パスなどの設定の問題なのでしょうか?
0196デフォルトの名無しさん垢版2015/11/11(水) 22:32:08.88ID:kzShUi9X
コマンドプロンプトからcl.exe叩くのと同じだろう。
VSの開発者コマンドプロンプトからやってみれば?
0198デフォルトの名無しさん垢版2015/11/16(月) 00:30:41.16ID:wFEoXPFZ
質問です
OpenGLとCUDAを使って流体のシミュレーションをしようと考えています
OpenGLの描画とCUDAの計算を別スレッドで行ってCUDAの計算の完了を待たずに描画をしようとするとプログラムが落ちてしまいます
そもそもこういう使い方は間違いですか?
GPUを二つ使わないと不可能なのでしょうか?
0200デフォルトの名無しさん垢版2015/11/16(月) 11:12:07.65ID:wFEoXPFZ
正確には
      CUDAで計算
          ↓
計算用と描画用として二つのデータをメモリにコピー
     ↓        ↓
グラフィック描画  CUDAで計算  ←ここを並列化したい
               ↓
計算用と描画用として二つのデータをメモリにコピー
     ↓        ↓
グラフィック描画  CUDAで計算
               ↓

といった処理の流れです
描画と計算の処理の合計が少しでも速くなれば最終的には速くなる見込みなんですが、描画とCUDAは同時にはできないのでしょうか?
0201デフォルトの名無しさん垢版2015/11/16(月) 13:12:47.35ID:tPyDrti9
>>198
そういうのは環境、sdk、cc、計算モード、HWによっても違うと思うんだけど。

大前提として計算してる最中でも、描画分のリソースは残してるのかね?
0202デフォルトの名無しさん垢版2015/11/16(月) 18:15:47.96ID:wFEoXPFZ
すいません何故か解決しました
OpenGLによる描画をサブスレッドにしていたところメインスレッドにしたら問題なく実行できるようになりました
0203デフォルトの名無しさん垢版2015/11/19(木) 10:22:54.59ID:78JlLUmP
AMD、GPGPUの向けの取り組み「ボルツマンイニシアチブ」を発表。CUDAとの互換性も提供 | スラド
http://srad.jp/story/15/11/18/0657225/
0204デフォルトの名無しさん垢版2015/11/19(木) 18:31:49.90ID:xKyOvSDo
>>203
いまや一般向けプログラムですらGPUを使うことが普通になったから、
これがC++コンパイラーのデファクトになるだろうな。
DX12,VulkanでGPUするならAMDって流れにまってしまったからな
0207デフォルトの名無しさん垢版2015/11/19(木) 21:33:26.48ID:ngiRjlY7
産業向けのガチのやつならNvidiaでくだ
カジュアルな一般向けならIntelをOpenCLでってとこかな
0208デフォルトの名無しさん垢版2015/11/19(木) 22:05:05.00ID:btQoS/xZ
開発の手間で言えばCUDAが一番楽。NV限定にできるなら趣味でやるにしてもそれが一番手軽。
OpenCLならせめてAMD。IntelはOpenCLの経験を積んだ苦労と向け。
0209デフォルトの名無しさん垢版2015/11/19(木) 22:09:50.57ID:ngiRjlY7
個人向けやオフィスPCでグラボ別にあるのって少数だから仕方ない。
数を優先するならむしろNvidia切ってIntelのみ対応という手もありうる。
0211デフォルトの名無しさん垢版2015/11/19(木) 22:48:28.04ID:btQoS/xZ
HD GraphicsでOpenCLやってもCPUと大して性能変わらんぞ?
それに、オンボードグラフィックスのPC自体は多いだろうが、OpenCL1.0しか動かんとか
そもそもOpenCLが使えないのも少なくない。間口でいうならSSEでもやるほうがまし。
そうでなければAMDでOpenCL開発してNVとIntelで動作確認ってところだな。
0212デフォルトの名無しさん垢版2015/11/19(木) 23:05:53.48ID:ngiRjlY7
>>211
CPUの代わりというよりは少しでも計算パワーがほしい場合もあってさ。
GPU使ってる間CPU使えるなら2倍になるじゃん?
あるいはBGでうごかしてフロントでは通常のアプリ使えるじゃない?
絶対的なパワーというよりはそういう所に使いでを見出してる。

確かにOpenCLはHWアーキ変更激しいし世代でがらりと変えてくるからやりにくそうなんだけど。
0215デフォルトの名無しさん垢版2015/11/19(木) 23:54:31.95ID:btQoS/xZ
>>212
つまり、少しでもパフォーマンスは欲しいけどdGPUほどの性能は必要なくて、
数を優先するけどオンボードグラフィックスでOpenCLが動く環境に限定していいと。
最初の「カジュアル」からは想像つかないピンポイントな要件だなw
0216デフォルトの名無しさん垢版2015/11/20(金) 00:37:51.03ID:XYOZ5eLO
カジュアルGPGPUなら内蔵GPUでOpenCL2確定
一方、外GPUを使う高性能GPGPUものは昔はNvidiaが圧倒していたけど、いまはAMDが圧倒しているんだろ?
0217デフォルトの名無しさん垢版2015/11/20(金) 00:49:06.07ID:H4wqwi3u
>>215
そうなのかなあ?自分の文章の書き方が良くないのかもしれないが
ほとんどは内蔵GPUしか期待できないから、
その範囲で少しでも計算パワー稼ごうと思ったらそれしかないように思うのだけど

dGPUほどの性能はいらないわけじゃなくて、ほとんど期待できないからしかたなくという感じ。
0221デフォルトの名無しさん垢版2015/11/20(金) 07:48:52.29ID:kIzUFPbb
bitcoinは専用ASICが開発されてとっくにそっちが主流になりました
GPGPUでやったところで、最早電気代のもとを取ることすらできない

GPGPUが最適といわれるのはASIC以前にFPGA化して売り出すほどの人気もない
マイナー暗号通貨くらいでそんなニーズが世界的な需要をけん引することなんて
ありうるわけがないのだ(需要が少ないからこそGPGPUでやってるわけだし)
0222デフォルトの名無しさん垢版2015/11/20(金) 07:54:46.98ID:h5Le2W6O
>>217
一般に配布するアプリでなるべく多くの環境で動かしたいというならOpenCLで、
内蔵GPUしかない人は動けば御の字、もっと速く動かしたければちゃんとしたGPU
買ってね、でいいと思うが。
社内ツールとかで外付けがほとんど期待できないのなら、たいして速くならない
割りに動かないリスクばかり大きいんで素直にCPUのがマシ。
0223デフォルトの名無しさん垢版2015/11/20(金) 08:15:06.13ID:lXZVvFkG
GPUばりばり使ってますってアピールしているプログラムで、avxもsseも使えないようなプログラミングしている例も多いからなぁ。
0224デフォルトの名無しさん垢版2015/11/20(金) 08:21:26.00ID:kIzUFPbb
内蔵GPUはどのみちメインメモリの帯域で頭打ちになるのでたいていの問題では
AVX使ったほうが速いんだよね

どっかのA社のはCPUコア側のメモリ帯域にリミッタがかかってて内蔵GPU側も使わないと
フルに帯域を使えないうえCPU側のAVX性能が残念だから
そもそもそれ専用にプログラム書くほどの市場がない

CUDAは一握りでもちゃんと労力に見合った金を払ってくれる法人ユーザーが一定数いるから
ビジネスとして成立するんだよ。その点法人皆無で貧乏人しかいないA社ユーザーじゃ無理
0225デフォルトの名無しさん垢版2015/11/20(金) 11:47:48.38ID:mr/p17yR
ビットコインマイニングとか普通じゃない使い方で普及してるかどうかはどうでもよくないか
0226デフォルトの名無しさん垢版2015/11/27(金) 23:57:44.09ID:tzomtYgx
内臓GPUにこだわるのはそもそもGPUに興味もない人が増えていて
そんな人までプログラム、GPGPUに参加したり利用する可能性が高いからなんだよな
GPU自体ニッチ向けの商売になりつつあるし
0227デフォルトの名無しさん垢版2015/11/28(土) 00:01:22.67ID:KoXr/JyJ
>>200
DX12でGeForce全般がAsync、非同期処理が苦手といった話があったけどそれとは関係ないよね?
自己解決ってことはやっぱ非同期で処理してたのが原因かもしれないけど
(サブで描画するのは普通にお行儀が悪いけど)
0228デフォルトの名無しさん垢版2015/11/28(土) 00:33:01.21ID:CG0HQ1xP
単にOpenGLの使い方の問題だろ。context作ったスレッドと別のスレッドからアクセスしようとした。
0229デフォルトの名無しさん垢版2015/11/29(日) 06:40:00.31ID:Ciaig/FJ
Win7PCに搭載されたQuadro4000とVC2012のC++AMPでfloatの計算をさせると「グラフィックスが応答しないのでリセットしました」とかメッセージをだしてプログラムが異常終了してしまう。
計算量はCPUを使った場合に8スレッド+AVX2で30分くらい。一枚のグラボで画面表示とGPGPU計算の両立は無理? CUDAを使えば可能なのだろうか?
0231デフォルトの名無しさん垢版2015/11/29(日) 19:54:46.97ID:jxlspYCF
>>229
GPGPUではよくあること
そんなことがよくあるから一般PCでGPGPUが激活用されない
一般PCではGPGPUよりOSによる画面表示の方が大事だから、画面表示を激妨げるのものは殺す
GPGPUを必死したいならGPGPU用VGAと画面表示用VGAを搭載する
画面表示を激妨害しないようなゆとりGPGPUプログラムにする
0236デフォルトの名無しさん垢版2015/12/09(水) 05:38:34.32ID:0m997ITy
2秒たったらハードウエア割り込みをかけて一瞬だけ画面表示させて、TDRが問題にならないように制御できないのかな?
0238デフォルトの名無しさん垢版2015/12/09(水) 19:33:54.62ID:wnEGaksG
いや、むしろ向いてるかも
デスマーチを突破するにはそれぐらいのやっつけ仕事が出来なきゃねw
0239デフォルトの名無しさん垢版2015/12/10(木) 02:04:50.93ID:0cE1JGhL
勢いでwindows10にしてからcudaが一切認識しなくなった・・・
version7.5、ドライバ最新版入れてGPU-ZでCUDAにチェック入っているのに初期化で失敗する。
付随してwaifu2x-caffeとかも動かなくなってるしもしかしてまだwin10には対応してなかったのか。
0241デフォルトの名無しさん垢版2015/12/10(木) 22:46:54.47ID:0cE1JGhL
>>240
だよね・・・
最新ドライバや少し古いバージョンを入れてみるとGPU-Zでチェックに入ってるんだが
cudaを使うソフトがことごとく検出できませんでしたと出てサンプルプロジェクトも強制終了する。
NVEncのためにCUDAが使えなくなったとかいう記事見たけど、まさかこれが理由ってわけではないよね
0244デフォルトの名無しさん垢版2015/12/11(金) 02:14:41.31ID:f48gwmmB
>>241
GPU-ZでCUDAが見えるのにアプリケーションが動かないってのはRuntime DLLが
見つからないんじゃないのか?
どっちにしても、CUDAのどの関数を呼んだときに落ちるのか、あるいはそもそも
最初から起動できないのか、どこで落ちているかくらい調べることはできるだろ。
0245デフォルトの名無しさん垢版2015/12/26(土) 22:42:40.07ID:Xbomr4ek
>>238
そんな態度でいるからデスマーチに陥るんじゃ?
いざとなった時の処世術は身につけておかなければいけないとは思うけど
0246デフォルトの名無しさん垢版2016/01/10(日) 19:11:06.55ID:EetmQxdp
おかげさまでCUDAでchainer使えるようになりました。
爆速で進捗状況見てるだけで嬉しいです。
本当にありがとうございました。
0248デフォルトの名無しさん垢版2016/01/17(日) 03:23:46.57ID:lMNqpq/q
教えていただきたいことがあります。
ubuntu14で、chainer1.5.1のmnistをGPUで計算できるか試行錯誤中です。
python train_mnist.py --gpu 0 #エラー 
sudo python train_mnist.py --gpu 0 #エラー
python train_mnist.py --gpu 0 #うまく動いた
と、sudoをつけて外しただけで、うまく動いた理由を知りたいのです。自分の操作が正しいのか間違ってるのかよくわからなくなってきました…
ログのリンクも添付しています。2つは同じファイルです(dotupはアップローダーの都合上zip圧縮しています)

事前の処理として、vgaのドライバ、cudaとcudnnを入れてパスを通しています。
またchainerのmnistも、cpuの処理ならエラーは出ずに動いていました。

操作は
python train_mnist.pyを実行してcrl+cで止めた。
python train_mnist.py --gpu 0を実行してエラーになった(30-38行目と同じエラー)。
その後、再起動
1行目:VGAの番号を取得した(GTX750tiのIDが0)
28行目:enter押しただけ
29行目:python train_mnist.py --gpu 1 なんとなくid1で動かしてみた。エラー
39行目:id2で動かしてみた。内蔵gpuを使うかも?と思ったがエラー
49行目:id0で試すもエラー
59行目:sudoつけてみてエラー。パスを引き継いでないからnvccがない(=CUDAが見つからない)、cudnnが無いというエラーが出ているのだと思います。
91行目:sudo外したら普通に動いた

http://www.dotup.org/uploda/www.dotup.org702271.zip.html
http://www1.axfc.net/uploader/so/3602353
0249デフォルトの名無しさん垢版2016/01/17(日) 04:58:38.94ID:rTwmHzKS
普通にsudoユーザー環境でcudaにパスが通ってないだけ
パスの通し方がわからなかったらこのスレじゃなくてLinuxの初心者スレで
0251デフォルトの名無しさん垢版2016/01/21(木) 02:42:05.52ID:ZU2ddnih
素人な質問なんですがコア数×10スレッド立てたときとコア数と同じスレッド数で10ループした場合とでは前者の方が1.5倍くらい早かったんですけど何故でしょうか
物理的に真に並列で動作するのはコア数と同じスレッド数ではないのですか
最適なスレッド数が分からなくて困ってます
0252,,・´∀`・,,)っ-○○○垢版2016/01/21(木) 03:02:10.96ID:tV143knu
Core数ではなくWarp数に合わせるべし
Maxwellの場合はコア数とWarp数は一致してるけどね
コア数の倍以上のスレッド数を立ち上げるメリットは、ロード・ストアを含む命令間の
レイテンシが隠蔽されるのでパイプラインの充填率が上げやすくなる。
半面、1スレッドあたりで使えるレジスタ本数が少なくなるので

ロード・ストアを頻発するほどのレジスタ不足になるのは本末転倒なので
並列化は程々に。
これに特に明確な基準はない。最適なスレッド数はトライ&エラーで決める。

慣れてくるとPTXとかCUBINを逆アセンブルして決める場合もある
(昔、理研で重力を自在に操る高貴なる男性研究者がメールで教えてくれた方法)
0253デフォルトの名無しさん垢版2016/01/21(木) 03:04:52.51ID:l5HMGS+b
>>251
仮想コア等の技術などで、本来あるコア数以上の並列処理をするのが最新のcpuやGPU、そしてライブラリ
そのへんはあまり考えずにリファレンス通りに投げてしまう方がいいと思う。
ライブラリによっても日々変わるので、最適なスレッド数というのはわからない
0254デフォルトの名無しさん垢版2016/01/21(木) 03:07:26.03ID:UGOk39Ww
並列化のアレコレの時に気をつけるのは基本的にはオーバーヘッドやで
スレッド増やしたことで減るオーバーヘッドを考えてみなされ
0255デフォルトの名無しさん垢版2016/01/21(木) 03:12:33.48ID:RQbtFNgK
そんなもん処理にもよるわ
メモリアクセスがネックになることが多いから
物理的に真に並列で動作するなんてことの方がまれ
0257デフォルトの名無しさん垢版2016/01/22(金) 08:29:36.48ID:3nKRZUCp
ECCにはこだわっても
マザーの品質にこだわらないならいいのではw
0260デフォルトの名無しさん垢版2016/01/22(金) 19:37:25.23ID:xiqoLqZ5
RadeonはCUDA対応してないじゃん
nvidia製の非同期処理に対応したCPUは実質的にはまだ出てない
0261デフォルトの名無しさん垢版2016/01/22(金) 22:55:19.34ID:XypiUmy6
>>260
>RadeonはCUDA対応してないじゃん
当たり前じゃんw

>nvidia製の非同期処理に対応したCPUは実質的にはまだ出てない
だからなに?
それまで待ってるの?
意味がわからない
0263デフォルトの名無しさん垢版2016/01/22(金) 23:38:58.19ID:/Be9v1kC
1.メモリ読みにいく
2.大きな遅延が発生するからレジスタ待避
3.別なスレッド立ち上げる

を繰り返し
レジスタがどんどん減っていく
0264デフォルトの名無しさん垢版2016/01/22(金) 23:48:18.02ID:xiqoLqZ5
>>263
これがあるから並列処理に制限がかかって
非同期処理はnvidiaがNG出す状況になってるんだろうなと思う
0269デフォルトの名無しさん垢版2016/01/28(木) 12:56:49.21ID:6a4EL6WE
むしろNVにとっての痛手は倍精度のGPUを作っちゃうと「ゲーム用」が完全にAMD天下になっちゃう事
その最大の理由が、SCEに吹っかけすぎて、NV切りを起こされた事

GCN世代GPUがゲーム機を総獲りし、ローレベルAPIで組まれるAAAタイトルが全てGCNに最適化
これを奇貨としたAMDがDirectX12を提唱→DirectX史上初めての互換切り→AMDデファクトスタンダードの流れ
そのために科学技術演算と言う市場を捨てないといけなくなった

VulkanもDX12に倣って完全にAMDに合わせてるからな
だからディープディープ連呼するんだよ
半精度でディープが出来るからな
0270デフォルトの名無しさん垢版2016/01/28(木) 15:37:41.52ID:GWvEyNte
カメラと連携してリアルタイムで判断をこなしながらってのは非同期処理無しでも大丈夫なのか?
0271デフォルトの名無しさん垢版2016/01/28(木) 17:48:40.92ID:nzOvC+QF
ばかがいる
0275デフォルトの名無しさん垢版2016/01/29(金) 07:41:28.07ID:HGJh8rQ+
hyper-q
0276デフォルトの名無しさん垢版2016/01/29(金) 12:43:58.50ID:q0fsZtFa
多分非同期君はNV信者だと思う
そうでなければこんなところのこんなスレで五月蝿く連呼するか?

問題はなぜそうするのか、だ

俺なりに出した答えは、Pascal開発が暗礁に乗り上げてる所為だと思う
未だにモックしか出してないからな、Pascal
0277デフォルトの名無しさん垢版2016/01/29(金) 15:12:50.38ID:HGJh8rQ+
ばかがいる
0279デフォルトの名無しさん垢版2016/01/30(土) 11:53:30.18ID:8faHSQBO
VulkanとDirectX12は殆どAMDのためにあるようなものだからな
ゲーム機を支配したAMDはローレベルAPIを支配し、ゲームコードは全てAMD基準になった
これはNVにとっては痛恨

倍精度GPUなんか出す余裕はないだろう
0280デフォルトの名無しさん垢版2016/01/30(土) 12:24:57.23ID:o5vi6iJ9
GPUのグローバルメモリのバンド幅計算で質問があります。
バンド幅(GB/s) = メモリのデータレート(MHz) * bit幅(bits) / 8(byte) / 1000

メモリのデータレート GDDR5の場合 clock * 4
           DDR3の場合 clock * 2

上記のようになると思うのですが、
DDR3は立ち上がり立ち下がりで情報を伝達するのでクロックの2倍になるのはわかったのですが
GDDR5がDDR3に比べなぜ2倍になるのでしょうか?
0282デフォルトの名無しさん垢版2016/01/30(土) 16:35:02.53ID:o5vi6iJ9
>>281
回答ありがとうございます。

NVIDIAのスペックを見ていたのですが仕様値と計算があわず、わからなくなってしまいました。
http://www.nvidia.co.jp/object/product_tesla_C2050_C2070_jp.html
これによると、C2050は384bit, 1500MHz, で144GB/sとあるのですが、計算してみると
 384 * 1500 * 4 / 8 / 1000 = 288GB/s
になってしまうのです。仮に1500MHzがデータレートと仮定すると
 384 * 1500 / 8 / 1000 = 72GB/s

どちらも仕様値と違ってしまいます。もしかしてバンド幅はメモリのリードとライト
合わせての値なのでしょうか?
0284デフォルトの名無しさん垢版2016/01/30(土) 16:59:32.46ID:8faHSQBO
NVはもう倍精度のGPUは造らないよ
ローレベルAPIをAMDに奪われた現在、半精度GPUで描画特化をせざるを得ない
0288デフォルトの名無しさん垢版2016/01/31(日) 01:06:55.62ID:V+Yf7lZI
単精度でも十分みたいな話じゃなかったの?
それでディープ・ラーニングを推し進めていると思ったんだけど
0289デフォルトの名無しさん垢版2016/01/31(日) 01:23:20.65ID:cNgLqKMa
深層学習とビッグデータは半精度(でも可)
しかしこのスレの関心はあくまでも倍精度、出来るならば倍々精度だろ?
しかしこの倍精度は、CS機の競争環境でオマケがつくか削られるか都合で決まる

そう言うわけでVoltaはアメリカ政府との契約違反に問われないように出荷するだろうけど、
これはカスタム

AMDにCS機が獲られた現在、NVのGPUは描画/ワットパフォーマンス特化路線に軸足を置いた
DirectX11まではハイレベルAPIだったから倍精度GPUを出す余地があり、同時に科学技術演算市場を狙う二兎を追う路線を
追求できた

しかしDirectX12は完全にAMDのGCN世代GPUのハード直叩き規格だから普通に戦ったらfps/解像度共に負けてしまう
だからこそ半精度に活路を求めている
0290デフォルトの名無しさん垢版2016/01/31(日) 01:27:41.36ID:v07wXVxF
DirectX12とかどうでもよろしい
ここはCUDAのスレ
AMDな方はOpenCL()のスレにお帰り下さい
0297デフォルトの名無しさん垢版2016/02/01(月) 09:11:27.82ID:fnCrDph6
物理系じゃ大きい数+極小の数なんて普通にあるからな
倍精度でも足りなくて四倍精度必要になったりすることもざら
0298デフォルトの名無しさん垢版2016/02/01(月) 09:26:01.45ID:2VMpgIMC
Kerasってdeep learningフレームワークはbackend.pyてファイルを追加するだけでopenclでも動くようになってるよ。誰かbackendを書かないか?
0299デフォルトの名無しさん垢版2016/02/01(月) 12:33:46.47ID:Ucvj9UOE
こうなったらこのスレの住人が声を上げて、PEZYに倍々精度のMPUを造ってもらおうよ
もうNVは金輪際倍精度に手を出さないよ
0300デフォルトの名無しさん垢版2016/02/01(月) 14:17:42.51ID:fSUYSvsK
倍精度が必要な要件って
例えば何があるんだ?
2.0e+38を超えるスケールで
2.0e-38以下の誤差を必要とするプロジェクト?
そんなのあんの?
そりゃー誤差が小さくなれば
破綻する可能性は減るけどさ
おたくらが求めてるのってそれだけじゃねえの?
0302デフォルトの名無しさん垢版2016/02/01(月) 14:59:29.79ID:9fNLotPU
>>296
でもシミュレーションにGPGPU使ってる人いるだろ
たいして速度でないのに倍精度でやってんのか
xeon phi使った方が良さそう
0303デフォルトの名無しさん垢版2016/02/01(月) 15:05:12.00ID:CUSF99yG
>>300
指数分の大きさではなくて仮数部の大きさ(幅)だよね。
仮数部の幅分大きさの違う数値を加減算すると0を加減算したのと同じになると思うけど。
0305デフォルトの名無しさん垢版2016/02/01(月) 15:07:56.23ID:SiSRa9Ib
装置もんで数万枚/日のリアルタイム画像処理に使ってるけど、普通にdoubleが使えると楽なんだけどな。
速度も考慮すると大きい数と小さい数の計算前、画像処理の前後でdouble、float変換してるからCPU圧迫してくる。
でも、シンプルで意図した通りに動くからCUDAは組みやすい。
んー、この辺がジレンマだな。
0307デフォルトの名無しさん垢版2016/02/01(月) 16:07:14.05ID:oiE/5K5n
>>299
そこの製品一般人で買えるルートあんのかよ
0308デフォルトの名無しさん垢版2016/02/01(月) 18:24:22.88ID:BOcjqYcH
大きな行列の計算、FFT、急峻なカーブの音声フィルター、レイトレーシング、物理シミュレーション、空間認識、...
倍精度以上の精度が必要な用途はいろいろとある

単精度のハードで倍精度相当の演算をすると、十数倍の時間がかかる
倍精度のハードで4倍精度相当の演算も同様に十数倍
多倍長演算も倍精度や4倍精度ハードがあれば、単精度よりもずっと速く計算が可能
0309デフォルトの名無しさん垢版2016/02/01(月) 18:32:19.85ID:BOcjqYcH
簡単な画像フィルターや音声フィルターなら単精度でいいし、ディープラーニングなら半精度でも良かったりする

半精度〜4倍精度までのハードがあるのが一番なんだけど

倍精度演算ハードがあれば単精度も同じ速度で計算が可能だが、単精度のハードで倍精度相当の演算をするには十数倍の時間がかかる
ゲーム用途など、単精度を使うことがはっきりしてる時じゃなければ倍精度を積んでおくのが無難

4倍精度はさすがにGPUに積むのは規模が大きくなりすぎるが、CPUには積んで欲しい
半精度は、単精度との変換だけでとりあえずは良い
0310デフォルトの名無しさん垢版2016/02/01(月) 20:19:15.33ID:Ucvj9UOE
http://www.4gamer.net/games/251/G025177/20160105002/
http://www.4gamer.net/games/251/G025177/20160105002/
>また,Huang氏が示したスライドで,第2世代Maxwellアーキテクチャベースの「GeForce GTX TITAN X」とDrive PX 2を比較すると,
>単精度浮動小数点演算性能は前者が7TFLOPSなのに対して後者は8TFLOPSと,
>劇的には高速化していない点も気になった。

↓その一方で…
>ちなみにHuang氏は,Drive PX 2の性能指標として,ディープラーニング処理の演算性能を示す
>「DL TOPS」を示しているが,これだとデュアルPascalはGeForce GTX TITAN Xの3倍以上というスコアになっている。

これ、完全にゲーム特化とビッグデータ特化GPUじゃん、Pascalwwwwww
俺の言ったとおりもう科学技術GPGPUはオワコンなんだよ
完全に半精度依存、完全にワットパフォーマンス/描画特化GPU路線だはwwwwww 👀
Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f)
0314デフォルトの名無しさん垢版2016/02/01(月) 23:10:33.37ID:BOcjqYcH
>>311
まあ純粋に乗算器だけでいえばそうだけど...

>>310
半精度はさすがにゲームでも足りない
半精度専用GPUなんて出ない
少なくともPC用には
0315デフォルトの名無しさん垢版2016/02/01(月) 23:17:23.47ID:BOcjqYcH
>>313
業務っていろいろあるが
おれの範疇は単精度、倍精度、疑似4倍精度、多倍長といろいろ
多倍長も、筆算レベルからカラツバ、DFTレベルとさまざま
もちろん普通のレジスタサイズの整数演算も
特殊なジャンルであることは否定しない
0316デフォルトの名無しさん垢版2016/02/01(月) 23:19:49.62ID:BOcjqYcH
半精度もIEEE754じゃない独自フォーマットなら使った事はあるが、使った事があるって程度
0317デフォルトの名無しさん垢版2016/02/01(月) 23:27:26.75ID:dRJvSEmL
>>314
>半精度はさすがにゲームでも足りない

そんなこと分かるかよ
HDRで16bit浮動小数点フォーマットとか普通に使うだろ
メモリ帯域が半分で済むんだぞ
ゲームなんか正確さより速さ優先だから、色を表現するのに16bitで十分な場合がほとんどだろ
0318デフォルトの名無しさん垢版2016/02/02(火) 01:51:42.07ID:LP8V/wwM
だから違うよ
使ったことがあるかじゃねーよ
何でその精度が必要なのかってところよ
4倍精度とか軽々しく言うが
このスケールが本当にわかってるのか
疑わしいぜ
0320デフォルトの名無しさん垢版2016/02/02(火) 12:53:46.97ID:ULLNmZyK
>>314
よく嫁
Pascalは基本混合精度
PK104は単精度と半精度の混合
PK100は倍精度の混合らしいが、多分これはテスラ新シリーズとして販売だと思う

もうグラボ価格の倍精度CUDA組はむりぽ

>>319
もうPEZYにお願いするしかないよ、倍々精度
これはマジでそう思ってる
逆を言えば理研=PEZYの特殊HPCはそこしか生き残りが出来ないのではないか

どうしてもというならARMカスタムとか

倍精度はNVはもうだめぽだから、AMDに期待するしかない
0321デフォルトの名無しさん垢版2016/02/02(火) 13:17:56.85ID:sWHooGm6
混合精度って単精度と半精度が両方載ってるって事だよな

仮に1個の演算器の回路規模が1:3として、演算器の回路比率を1:1にし、単精度は半精度の演算も出来るとすると、すべて単精度にした場合に比べて演算器の数は単精度が半分で単精度が2倍か

単精度2倍のインパクトよりも単精度半分のインパクトの方が大きい気がする
0322デフォルトの名無しさん垢版2016/02/02(火) 14:24:13.48ID:ULLNmZyK
完全にグラフィックス描画効率/深層学習向けの構成だね
データ地獄になるから広帯域メモリも必要になるがHBM規格はAMDが握っているために、(HBM2の)開発が遅れた
GDDR5+を急遽導入する事になったのはそのため

このスレだとDX12とかVulkanとか一言口にするだけで「スレチガイだ馬鹿!」と怒鳴る奴がいるが、
これは全てが絡み合っている

DX12とVulkanという二つのローレベルAPIがAMD中心による策定である以上、これらのローレベルAPIへの依存を避ける
ワットパフォーマンスGPUに経営路線の舵を切るの必然
0326デフォルトの名無しさん垢版2016/02/02(火) 22:08:37.37ID:+ZIKPYce
雑談は楽しいけど、ここCUDAスレやで
amdの話をするなってことじゃなく、スレチ話をいつまですんねんってこと
0329デフォルトの名無しさん垢版2016/02/03(水) 12:56:39.94ID:d3Nc4Jqw
バカな上の病気なんだな
0332,,・´∀`・,,)っ-○○○垢版2016/02/03(水) 22:25:59.26ID:gpz71jEo
TeslaでもXeon Phiでもなく一般ピープル向けGPUに倍精度性能が必要だって言ってるのは
ろくに科研費申請が通らない貧乏研究室くらいでしょ
0336デフォルトの名無しさん垢版2016/02/04(木) 20:00:25.29ID:o+ucOEnp
単精度と比べると凄い遅いだけで
倍精度演算自体はハードで実装している。
物凄い遅いといっても1/32で1/16のradeon furyと比べると半分だから大差ないと言えば無い。
0337デフォルトの名無しさん垢版2016/02/04(木) 20:13:21.23ID:d8M6zG1u
Maxwellは倍精度の演算器が排除されただけで疑似倍精度は実装されている
そもそもソフトレベルでも実装できることだし
0338デフォルトの名無しさん垢版2016/02/04(木) 20:15:36.92ID:TT5D/Cpx
FURYはMaxwellを参考にしてるからな
HBMの容量の少なさが祟って何じゃこりゃ状態だったけど、Polarisは一層Maxwell類似のワッパ路線がとられる
これでNVはもう倍精度を完全に捨てにかかる
0339,,・´∀`・,,)っ-○○○垢版2016/02/04(木) 23:21:52.01ID:zdF89aL0
いや実際半精度が4倍速いほうが使いどころあると思うよ
ゲームで倍精度なんて使わないじゃん
0342デフォルトの名無しさん垢版2016/02/05(金) 01:21:13.26ID:p946S2WD
>>339
>ゲームで倍精度なんて使わないじゃん


団子!
お前はインテルスレとワッチョイIPの次世代AMDスレに帰れ

倍精度使わんGPGPUなんか炭酸のないコーラと同じ
ここは管スレ
0343デフォルトの名無しさん垢版2016/02/05(金) 04:09:45.89ID:iPwofUfz
倍精度を高速化したらどれだけ売り上げが見込めるのかをnvに分かるように説明したら。

>>341
頂点シェーダは単精度が必要でも、実行時間のかなりがフラグメントシェーダなんだから、別に半精度専用になって売れないとはならないだろう。


住みわけがある訳だろ。で、倍精度頑張ったのは期待の売り上げが出なかったわけだろ多分。
願望を語るスレであるより、アリモノでなんとかするスレであった方が建設的だと思うがね。
0345デフォルトの名無しさん垢版2016/02/05(金) 08:26:49.67ID:23YXKvG1
なぜ団子がここにいる?

まあ、CUDAもかなり広く使われてくるようになったから、
数値演算の枠組みだけじゃなくなってきているのはわかるが。
0346デフォルトの名無しさん垢版2016/02/05(金) 08:45:35.15ID:bTIbnCX4
いやこのひとはかなり初期からCUDAつかってるの
それこそnvにgeforceくれてやるからCUDA使ってちょって
誘われるような時代から
0348デフォルトの名無しさん垢版2016/02/05(金) 12:16:48.26ID:bTIbnCX4
http://techon.nikkeibp.co.jp/atcl/event/15/020100028/020400019/?bpnet&;d=1454641873634
CNN専用チップ、NVIDIAなどがGPUの改良で開発

http://techon.nikkeibp.co.jp/atcl/event/15/020100028/020400019/160204NVIDIAp0.jpg

Eyerissは、グラフィックス処理プロセッサー(GPU)と同様、SIMD(single instruction multiple data)などから成る
プロセッサー・エレメント(PE)を多数集積したICである。

ただし、GPUとはデータの移動を最小限に抑えた設計にした点が異なる。
具体的には、EyerissはSRAMから成るオンチップメモリー108Kバイトを備えており、
CNNの各層の演算結果をオンチップメモリーにバッファリングさせることで、
チップ外の主記憶に書き戻す頻度を大きく減らした。

また、PEに入力するデータ列に共通部分がある場合は、その共通部分を保持して差分だけを入力する。
さらに、複数のPEに同じデータを入力する場合は、各PEにそれぞれ送るのではなく、
途中まで1つのデータとして送り、そこからPEの個数分データをコピーして入力する。いわゆるマルチキャストである。
これらによって、データ処理時のデータの移動を最小限に抑え、消費電力を大幅に低減した。

加えて、データを主記憶に書き戻す時は圧縮し、読み出す時に伸長する。
CNNの畳み込み演算後のデータはフィルターを通すことで圧縮しやすい形になっていて、メモリー帯域の節約効果が高いという。

 作製したEyerissの動作をNVIDIA社のGPU「TK1」と比較すると、
EyerissはデータのスループットこそTK1の約1/2だったが、消費電力はTK1の最小約1/37と大幅に低い。
主記憶に出し入れしたデータの帯域も、TK1の1120Mバイト/秒に対し、Eyerissは127Mバイト/秒だったとする。
0350デフォルトの名無しさん垢版2016/02/05(金) 13:02:33.01ID:bTIbnCX4
また病気か
0353デフォルトの名無しさん垢版2016/02/05(金) 14:36:57.91ID:3a93fntK
どうもこのスレには
CUDAをマシに使っている奴は
いないようにみえるな
ひたすらベンチマークしかやってない感じね
0355デフォルトの名無しさん垢版2016/02/05(金) 16:34:59.76ID:3vmCyKKd
バックグラウンド処理が作りにくいからこそ、Asyncやプログラマブルコンテキストは次のGPUでは絶対に搭載してほしい
0363,,・´∀`・,,)っ-○○○垢版2016/02/08(月) 22:05:16.73ID:ZbGdhM32
「Teslaを一桁安値で買わせろ」みたいなのは論外だろ
ゲーマーと倍精度が欲しい人は市場が全くかみ合わない
そんなのもう結論出てるだろ
0364,,・´∀`・,,)っ-○○○垢版2016/02/08(月) 22:24:56.08ID:lyi6FC/t
もともとTeslaとQuadro/GeForceはECCの有無で差別化してたが
世界最大級のGPGPUスパコンがNonECCで使ってるので
全く差別化になってない

だから倍精度演算器を物理的に廃することでの差別化を行った
それだけ。

Tesla買えばいいだけだろ?
どうせ予算通らないから買えないだけだろ
ろくな論文も出せない底辺大学の研究室あたりがいいご身分だな
0367デフォルトの名無しさん垢版2016/02/09(火) 14:10:52.05ID:rPxo0Z4x
最初は影でこそこそディープディープ言ってて倍精度いらない、管スレでゲームコンソールを巡る政治的な思惑が
NVの倍精度切りに繋がった事実もスレチガイだ馬鹿野郎!って煽ってたのにな
流れが悪くなったのでコテの正体を出したんだろう

多分Async煽りも正体はこいつだ

ここのスレで倍精度がどうなるかは大学企業にとっても死活問題なのに
本当に陰険だね、団子は
0369デフォルトの名無しさん垢版2016/02/09(火) 17:14:02.43ID:uHp67F+7
べつにphiでも使えばいいだけだが
teslaとphiの混合機も普通にあるし

とりあえずamdという選択肢は皆無
0371デフォルトの名無しさん垢版2016/02/09(火) 18:40:55.41ID:OHQNRB+7
nvは高校生や高専向けのセミナーもやってるし
ことしのgtcもセッション数は500超える

やってきたことの重みが違いすぎる
0373デフォルトの名無しさん垢版2016/02/09(火) 19:07:27.62ID:dBPqK+gq
まともな研究機関ならTeslaは学割使えるんだが…
GeForceで倍精度が必要な理由なんてほんと世間知らずの戯言だな
0377デフォルトの名無しさん垢版2016/02/09(火) 19:32:42.77ID:OHQNRB+7
dlといえばmitとnvが共同開発したeyerissはflotじゃなくfixedだったな
データ移動を極力控えた構造でcnnの場合データの再利用性が高いので
peからpeへの受け渡しが有効なのだとか

それでもエネルギーコストは
aluからレジスタファイルへの場合を1とすると
peへは3
内部のバッファーへは10
外部dramへは500のエネルギーコストがかかるんだそうな
0378デフォルトの名無しさん垢版2016/02/09(火) 20:43:41.18ID:YFSBhYG5
>ここのスレで倍精度がどうなるかは大学企業にとっても死活問題なのに

言うことがバカすぎて吹いた
まともな法人はこのスレに社運なんてかけませんから

Tesla相当の性能をGeForceにも実装しろという
悪質クレーマーを客だと思わない権利は
NVIDIAにもあるだろjk
0379デフォルトの名無しさん垢版2016/02/09(火) 21:14:42.66ID:q4H41fNH
米エネルギー省の評価ソフトがほとんど単精度で
倍精度使うのがlinpackしかいという
0380デフォルトの名無しさん垢版2016/02/09(火) 21:20:54.23ID:IR1D3KHq
単精度じゃ足りないけど倍精度なら十分って領域は実は少ない。

単精度用演算器に少量の精度を追加して倍精度を1/4の速度でやるのが一番利に叶っている。
まあこれすら普及帯ではけちられて1/16になるのが倍精度の立ち位置

倍精度用の演算器積むくらいだったら単精度の演算器で可能なbit数で複数組み合わせると簡単に多倍長精度演算を実現できるような命令を用意してくれた方がよっぽどありがたい。
0381デフォルトの名無しさん垢版2016/02/09(火) 21:34:25.12ID:DH+vdKhf
>ここのスレで倍精度がどうなるかは大学企業にとっても死活問題なのに

糞ワロタwww
このスレすごいんだな
0384デフォルトの名無しさん垢版2016/02/10(水) 00:25:10.96ID:u83LBvNZ
倍精度が高ければ許される
倍精度が低ければ、メモリが多くてもメモリ幅が多くても消費電力が低くても許されない
0389,,・´∀`・,,)っ-○○○垢版2016/02/10(水) 08:25:30.16ID:gHO8h5ZQ
倍精度ハードフル実装マンセー

トランジスタが増える

ウエハ1枚あたりのチップ採れる数が減る(&歩止まり率も減る)

製造コスト上がる

(,,・´∀`・,,)
0390デフォルトの名無しさん垢版2016/02/10(水) 08:35:12.26ID:IPR+3W8l
倍精度の話しないと死んじゃう人は点呼取ってくれる?
「倍精度でCUDA」スレと、「実在のGPUでCUDA」スレに分けた方がいいよね、多分。
0391デフォルトの名無しさん垢版2016/02/10(水) 08:39:26.22ID:5rSlusQ0
バカはhello worldから始めなさい
0392,,・´∀`・,,)っ-○○○垢版2016/02/10(水) 08:48:59.74ID:gHO8h5ZQ
件の赤い会社が帳簿の赤も解消しないのは、市場価格に対して製造原価が高すぎるからだよ
会社を潰れかけの状態にしてまで実装コストの高い倍精度ハードを実装するのは模範的な企業とは思えんがねえ

QuadroとTeslaのブランドが分かれてないようなもんだ
0393デフォルトの名無しさん垢版2016/02/10(水) 08:57:23.58ID:5rSlusQ0
まぁDLのおかげでteslaでも倍精度無しのものもあるけどね
ただ今後、DLはEyerissの方向で行きそうなんで
完全にDLは別ラインの製品でいくのか
GPU自体がEyerissの発展形になるか

GPUのデータ移動減らすとかレジスタファイルの階層化って研究はしてるようだけど
0395,,・´∀`・,,)っ-○○○垢版2016/02/10(水) 12:36:21.64ID:qcpMLBSZ
アホがいるね

特定のアプリケーションに特化して結果的に倍精度性能落とした製品は、その目的の用途から外れなきゃ何の問題もねーじゃん
ディープラーニングにもゲームにも倍精度の性能は必要ないから

倍精度が必要な用途にはK80やその後継あるいはPhiを買えばいい
科学技術演算用に設計されてないGPUに倍精度が必要だとかいうのはただのデムパ
0397,,・´∀`・,,)っ-○○○垢版2016/02/10(水) 23:12:49.82ID:7x9wHVqL
>>393
Teslaの単精度特化版は1スロット版のK8ならそうだけどK10なら発表は2012年で
ディープラーニング言い出す前の話
ダイ本体はGTX600番台そのものだからそれ専用に設計されてるわけではないしね


EyerissがよくわらんのだけどROPやテクスチャユニットも削ってるわけ?
0399,,・´∀`・,,)っ-○○○垢版2016/02/10(水) 23:52:02.41ID:7x9wHVqL
倍精度推しの池沼君がどんな世の中の役に立つソフト作ってて
LINPACKベンチ以外なんの実務に役立ってるのかは興味あるね
0404,,・´∀`・,,)っ-○○○垢版2016/02/11(木) 09:37:09.50ID:qHP8+I1C
俺は必要だっていう人の言い分は理解してるし
それに合わせたチップを選べばいいと思うのだけどね

倍精度ハードウェアがTeslaはともかく一般消費者向けのGeForceに
載らないといけない理由はない
一般消費者が倍精度のスループットを見てGPUを選ぶトレンドを作りたいなら
まずてめえが倍精度載せる価値のあるソフト作って示せばいい
0406デフォルトの名無しさん垢版2016/02/11(木) 13:23:19.60ID:U2ZcAFvs
へー
それって
一般消費者向けの
GeForceに?
0409デフォルトの名無しさん垢版2016/02/11(木) 13:35:33.57ID:U2ZcAFvs
あたまわるそう
0411デフォルトの名無しさん垢版2016/02/11(木) 13:39:04.93ID:U2ZcAFvs
また病気か?
0412,,・´∀`・,,)っ-○○○垢版2016/02/11(木) 13:42:27.10ID:yn/CS7EG
TSMCのウェハ価格体系的に用途別に倍精度が削れる用途向けには削ったほうが
コストダウンになるからそうするでしょうよ

Maxwell世代のTeslaがないのは大型スパコン案件もないからっての大きいと思う
0414デフォルトの名無しさん垢版2016/02/11(木) 13:47:41.45ID:U2ZcAFvs
Tesla M40「・・・」
Teala M4 「・・・」
0417デフォルトの名無しさん垢版2016/02/11(木) 17:25:56.22ID:R5nKPKgb
普通に考えて一般向けGPUに倍精度はいらないよな
32bitと16bit浮動小数点しか使わねーよ
それでも贅沢なぐらい
0423デフォルトの名無しさん垢版2016/02/12(金) 13:14:15.71ID:10CGBYPs
ここがCUDAスレだと何度言えば分かるんだ!団子
科学技術演算も出来ないGPUじゃ話にならんわ
0424デフォルトの名無しさん垢版2016/02/12(金) 17:49:19.72ID:igghQz0I
まあ、倍精度じゃないと、イタレーティブソルバーは収束しないわな。4倍精度ぐらいあれは、CG法で反復回数が極端に減るかもね。
0427デフォルトの名無しさん垢版2016/02/12(金) 22:41:27.77ID:10CGBYPs
今日の重力波観測にしたってあれは、理論屋が出したシミュレーションに従ってそれと同じデータを観測したわけだろ
そういうのが単精度/半精度で出せるわけねーだろ
0432デフォルトの名無しさん垢版2016/02/13(土) 00:16:44.75ID:X+VeUhDc
@No double precision, no life.
ADouble precision make me happy.
0434デフォルトの名無しさん垢版2016/02/13(土) 00:48:53.57ID:dx+PFg0T
CUDAをなんのために使うかだよなあ。
グラフィックスだけならOPENGLだけでええんのとちゃうか?
0436デフォルトの名無しさん垢版2016/02/13(土) 01:59:47.65ID:KZpZDJLQ
GPUはグラフィックスを扱うのが本分なので
一般向けGPUは倍精度無しでも文句は言えない
0438デフォルトの名無しさん垢版2016/02/13(土) 11:28:45.10ID:EDACvSC3
>>436
お前の文句なんかどうでもいい
GPGPUってのはこういうことのために使うんだぜ!?団子

-----------------------------------------------------------------------
645 : 名無しのひみつ@転載は禁止2016/02/12(金) 22:56:12.20 ID:oUDSwd87
>>626
別に2ちゃんだから適当に幾らでも変なことでも聞いていいんじゃね?

人間の頭で考えないと絶対にダメな部分が最も大きい

相対論も標準理論も量子力学も計算機だけでは絶対無理

計算機が答を出すというより、計算機は望遠鏡とか温度計のような「測定器の一種」という感覚が近いと思う

GPGPUは使いまくってるはずだけど、半ば問題に特化して設計するスパコンもあり

スパコンに関してはそれ自体がすごいというより、スパコン目当てに優秀な人が集まる効果のほうが大事という気がする、2020年のオリンピックみたいにスパコンという祭りに人が集まるから、良い方にも悪い方にも転ぶだろう
646 : 名無しのひみつ@転載は禁止2016/02/12(金) 22:57:56.72 ID:eXgf7vm3
0439デフォルトの名無しさん垢版2016/02/13(土) 12:08:27.34ID:c+BFT1nX
いろいろ探して結局コピペ
0440デフォルトの名無しさん垢版2016/02/13(土) 13:38:06.14ID:LMFsV4x8
結局何が言いたいの?
理想のものが欲しければ自分が計算機設計の専門家になればいいじゃん
手遅れかもしれないけど
0441,,・´∀`・,,)っ-○○○垢版2016/02/13(土) 14:55:58.29ID:dwcfM3wy
自然言語処理や画像認識、いま産学連携で資金集まってるのはこういう分野
データサイエンス分野は文系の学者さんも研究に参画してるし応用範囲広いんだよね
何の金にもならない倍精度行列積で1位じゃないとダメなんですか?とかホントどうでもいい話
0442,,・´∀`・,,)っ-○○○垢版2016/02/13(土) 15:03:24.00ID:dwcfM3wy
スパコンに倍精度演算性能が必要なのは誰も否定してないじゃん
個人のゲームやお絵かき用のパソコンにそれが必要かという話であって。

コピペで代弁してもらったつもりになってるのかもしれないけど
実質的に何の主張にもなってないわけよ
0443デフォルトの名無しさん垢版2016/02/13(土) 17:16:53.26ID:EDACvSC3
>>442
>個人のゲームやお絵かき用のパソコンにそれが必要かという話であって。

ホントここが何スレか分かってない池沼
Async煽りをしてた団子が攻守入れ替わるとこれだからな
0445,,・´∀`・,,)っ-○○○垢版2016/02/13(土) 18:00:36.66ID:dwcfM3wy
> Async煽りをしてた団子が攻守入れ替わるとこれだからな
それこそお前の妄想じゃん

RadeonのGPGPUプログラミングの話をしたいなら超過疎のHSAスレへ
0446,,・´∀`・,,)っ-○○○垢版2016/02/13(土) 18:03:11.84ID:dwcfM3wy
> GPGPUは使いまくってるはずだけど、半ば問題に特化して設計するスパコンもあり

って引用しつつ、倍精度性能が不要な用途に特化する意義は認めないんだね
0450,,・´∀`・,,)っ-○○○垢版2016/02/13(土) 18:25:02.18ID:dwcfM3wy
>>427の言ってるLIGOのリサーチに協力したのはうんこFireProではなくXeon Phiなんだよね
http://www.hpcwire.com/off-the-wire/taccs-stampede-supercomputer-assists-ligo-research/

重力演算は1格子点あたり小数点以下3桁程度の精度があれば十分といわれる分野
Stampedeに載ってるKNCは除算ユニットは遅く逆数・逆数平方根命令の
有効桁は14ビットだ。
まあこんだけあればニュートン法すら要らないわけよ。
倍精度で分解能を上げて遅い倍精度に単精度(実効精度14ビット)で格子点を
大量に捌くほうがより正しいシミュレーションができる。

ニュートン法不要ってのはニタドリ=サンの受け売りだが
0451,,・´∀`・,,)っ-○○○垢版2016/02/13(土) 18:42:17.05ID:dwcfM3wy
14ビットは間違い。SkylakeXeonで使えるAVX-512Fのほうだね。

KNCのrcp23ps/rsqrt23psのスループットは23ビット。
つまり単精度の除算は乗算1回との合計2ステップで割り切りなしの十分な精度が得られる
0453,,・´∀`・,,)っ-○○○垢版2016/02/13(土) 18:48:25.54ID:dwcfM3wy
倍精度必要論が否定されるから都合が悪いだけだろう?

重力演算のために長崎大がGeForce買いあさって作った激安スパコンだって
単精度特化仕様だったよ?
これもニタドリ=サンが協力している。古事記にも書いてある。
0454,,・´∀`・,,)っ-○○○垢版2016/02/13(土) 19:06:49.99ID:dwcfM3wy
ゴードンベル賞で2度の受賞を経験したニタドリ=サンをして
天文学分野のシミュレーションは半精度程度の分解能があれば十分だって言ってるんだよ
0455デフォルトの名無しさん垢版2016/02/13(土) 19:49:28.20ID:LMFsV4x8
でもGRAPEは6倍精度実装してるじゃん
天文学と一纏めにしてるけど連星とかブラックホールが近接するような場合は高い精度が要求されるよね
逆に宇宙の大規模構造とかだと桁増やすより分解能上げた方が精度上がるのかもしれないけど
0456,,・´∀`・,,)っ-○○○垢版2016/02/13(土) 19:57:12.93ID:dwcfM3wy
否定しない。
いずれにしてもどれも個人のパソコンに必要な要件ではない。
個人のパソコンのパーツを組み合わせて大規模演算ができるのはコストメリット的に重要だけど
個人のパソコンに倍精度が必要な理由の説明としては本末転倒です
0462デフォルトの名無しさん垢版2016/02/14(日) 01:39:56.33ID:lXFnYTTq
AMDな人が来てCUDAの話無・CUDA使っていない奴の雑談スレになったな
AMDのGPGPUスレ過疎すぎでこっちにきたんだろうが
0463,,・´∀`・,,)っ-○○○垢版2016/02/14(日) 02:02:42.36ID:vcWFNaoW
そもそも初代CUDAの時期に倍精度なんてサポートされてなかったし
メインストリームのGeForceが倍精度強かった時代なんて一度もないのに
いつから馬鹿の一つ覚えの倍精度連呼が始まったやら
0467デフォルトの名無しさん垢版2016/02/14(日) 15:01:21.31ID:LdUYpatK
そもそもCUDAは科学技術演算を必要とする人のスレなのにな
いつの間にか糞団子はゲームに必要かどうかに論点をすり替え
0470デフォルトの名無しさん垢版2016/02/14(日) 16:42:03.99ID:k6vnuBvm
cudaで今nvidia的にイチオシの用途がdlで、half性能が効いてくるという奴じゃないの?
0471デフォルトの名無しさん垢版2016/02/14(日) 16:58:17.35ID:MYivShEO
と言うよりGPGPU自体がDLバブルに乗っかってるからな
ボリュームゾーンに合わせた製品仕様になるのは当然の流れ
0473,,・´∀`・,,)っ-○○○垢版2016/02/14(日) 17:54:26.87ID:vcWFNaoW
DOE案件みたいな大口需要があるときだけ倍精度特化版作って
それ以外は民間需要重視でいくってのは間違いじゃないと思うよ

次のDOE案件はVoltaだ
逆に言うとそれまでは倍精度特化版は出ないということだな
0477,,・´∀`・,,)っ-○○○垢版2016/02/14(日) 21:07:00.02ID:vcWFNaoW
残念だけどGeForceに倍精度が必要な理由を説くには
ゲームなどの目的で使って一般ユーザーが必要であることは絶対必要な条件だ

まさかそんな単純な理屈もわからないのか?
だからお前は俺ごときに言い負かされてるんだよ
0479デフォルトの名無しさん垢版2016/02/14(日) 21:20:27.80ID:q4Y9hkYF
やっぱり次のスパコンはGPU入れてくるのかな。
CPUだけで今の100倍は難しいよね?
0480,,・´∀`・,,)っ-○○○垢版2016/02/14(日) 21:20:35.19ID:vcWFNaoW
Top500ランキングに使うLINPACKベンチは倍精度だからそれのためだけに必要なんだよ
ちなみにHPCGだと倍精度ユニットいくらあってももてあそぶから倍精度厨には逆風だね
0485デフォルトの名無しさん垢版2016/02/14(日) 21:46:01.01ID:3MzGEHLi
dlはもうeyerissの系統でいくんだろうな
機会学習はもう大きな需要が在るのわかってるから
専用設計のチップでも儲かるのが見えてる

gpuはある種汎用的なHPC向けになるんだろうな
pascalで階層型のスケジューラやレジスタファイルが実装されてると
そのコントローラー(こんぱいら)ようにcpuが搭載され
レンダリングはタイルになりそうだけど
0486,,・´∀`・,,)っ-○○○垢版2016/02/14(日) 21:47:24.48ID:vcWFNaoW
そんな人は一人もいませんよ?
消費者向けGPUに倍精度が必要みたいなアホなこと言う負け犬君を馬鹿にしてるだけですよ
0487デフォルトの名無しさん垢版2016/02/14(日) 21:47:51.57ID:VLtYVTYt
Geforceで科学技術計算なんてことあるの?
2秒間の壁や1週間も100%負荷で連続使用したら過熱して壊れそう。
0488デフォルトの名無しさん垢版2016/02/14(日) 21:51:42.44ID:k6vnuBvm
必要性もなにも倍精度演算自体は可能だろ。積和で単精度の1/32くらいの速度だけど。
それで不満な人間がCUDAにこだわる意味がわからん。
そもそもCUDA対応ハードで倍精度強かったのってfermiとkeplerの時期だけで、しかもコンシューマ向けで開放されたのもその極一部じゃない。
0490,,・´∀`・,,)っ-○○○垢版2016/02/14(日) 21:53:10.10ID:vcWFNaoW
倍精度が必要な人は必要らしくマイノリティ税を払って4桁ドルのTeslaを使えばよろしい
0491,,・´∀`・,,)っ-○○○垢版2016/02/14(日) 22:08:24.09ID:vcWFNaoW
防衛上の理由として

北朝鮮や中共がGeForceを買いあさって弾道計算に使われたら困るから
消費者向けGPUは倍精度を削るのは当然でしょう
0492デフォルトの名無しさん垢版2016/02/14(日) 22:18:41.75ID:k6vnuBvm
倍精度演算を単精度の1/4より速く実行するのは基本的に無駄なはずなんだよね。
keplerは別回路で使わなければ完全に無駄だったし、fermiの1/2にもからくりがあって、整数演算器の方に少し回路を付け足せば単精度性能を倍にできるのを抑えた感じ。
納入先との契約で倍精度性能は単精度の1/2にすることみたいな縛りでもあったのかね。

1/4にしないでもっとけちれば次は1/16になるのが自然
なのにmaxwellは1/32
0493デフォルトの名無しさん垢版2016/02/14(日) 22:57:17.12ID:MYivShEO
>>491
>防衛上の理由として

>北朝鮮や中共がGeForceを買いあさって弾道計算に使われたら困るから
>消費者向けGPUは倍精度を削るのは当然でしょう

中共とかなに時代錯誤なこと言ってんだよ
Nvidiaはファブレスで製造はTSMCだぞ
そもそも弾道計算にGPU要らんし
0494,,・´∀`・,,)っ-○○○垢版2016/02/14(日) 23:02:24.40ID:vcWFNaoW
今存在している政権を時代錯誤と言ってみたり台湾と中国の区別がつかなかったり
いろいろ論外すぎる
0495デフォルトの名無しさん垢版2016/02/14(日) 23:28:08.25ID:MYivShEO
>>494
いやいや、中共が買い漁るとか言ってるのが時代錯誤なんだよ
ココム時代かよ

スパコンの現状見て今更「弾道計算に使われたら困るからGPUから倍精度削りました」とか寝言としてもありえ無いぞ
0496デフォルトの名無しさん垢版2016/02/14(日) 23:32:03.43ID:MYivShEO
>>494
あ、そうそう
TSMCに限らず台湾メーカーは当然中国工場持ってるからな
中台の政治はアレだが経済はズブズブなんだよ
0497,,・´∀`・,,)っ-○○○垢版2016/02/14(日) 23:34:42.85ID:vcWFNaoW
その寝言で米国政府が天河1号Aおよび2号のパーツ供給打ち切る命令を下してりゃ世話無いわ
0498デフォルトの名無しさん垢版2016/02/15(月) 00:10:01.72ID:tk+f5azn
つーか今さらだよなぁ。
既に世界一のスパコン輸出した後で規制するとか、アメリカはアホなのか。
0499デフォルトの名無しさん垢版2016/02/15(月) 00:38:07.27ID:vFZf1/EN
>>497
お前それ反論になって無いぞ
もしかしてGeForceに倍精度のせないのはマジで米政府が関与してるとか思ってるわけ?
お前正気か?
もう少しまともな奴だと思ってたが買い被り過ぎだったようだな
0500デフォルトの名無しさん垢版2016/02/15(月) 01:27:27.22ID:WsLHcQ2x
弾道計算wwww
不安定なGPUなんか使うわけがないwwww
そんなものは化石CPUで十分
0501デフォルトの名無しさん垢版2016/02/15(月) 06:50:35.29ID:iMQPxQqI
2018年にかけて米国でknlとpascal,voltaでスパコンが更新されていくからな
天河はもう過去のものになる

日本はもう一番目指してないし
0502デフォルトの名無しさん垢版2016/02/15(月) 12:37:26.72ID:WsLHcQ2x
計算機なんて数増やせば良いだけだから単体性能よりコスパで1位を目指すべきだと思うんだが
0503デフォルトの名無しさん垢版2016/02/15(月) 13:15:29.44ID:GXDoYvGw
そんなん日本じゃ無理じゃん
0504デフォルトの名無しさん垢版2016/02/15(月) 18:36:52.42ID:jliXXPJr
>>502
なんもわかってないな
ノード数の2乗に比例してインターコネクトは複雑になる
なんのために大きなスパコンが必要だと思う?

莫大なメモリ空間がないとできないことがあるからだ
0505,,・´∀`・,,)っ-○○○垢版2016/02/15(月) 19:35:35.81ID:ZpISfAaX
>>501
そーは言ってもあの国はコンシューマ向けGPUかき集めてでもスパコン作るから
現に初代天河1号でそれやったし

中国のPCゲーム市場は拡大しててGPUメーカーにとってもおいしい市場だ
軍事転用の懸念から輸出規制かけられたらNVIDIAだって大損なわけよ
だから最初から倍精度ハードは載せない
その理屈は最低限理解してほしいのだけど・・・
0506デフォルトの名無しさん垢版2016/02/15(月) 20:03:17.93ID:dHmco+xc
そもそも倍精度はいらないって持論言ってなかった?
それなら軍事用途でも倍精度なしでいいってことだよね?
そうすると、中国はいくらでもGeForceを軍事転用して作れるんじゃない?

倍精度載せないのが軍事転用を防ぐためってのは無理がないか?
0507,,・´∀`・,,)っ-○○○垢版2016/02/15(月) 20:06:18.36ID:ZpISfAaX
もちろんそれが一番の理由だなんて言う理由はない
どうせ倍精度なんて使えてもそれこそ豚に真珠を与えるがごとき日曜プログラマの道楽のために
NVIDIAは会社を傾ける気はないのは確かだろう
0508デフォルトの名無しさん垢版2016/02/15(月) 20:37:26.50ID:dHmco+xc
ハイエンド以外はそうでしょうね。

でもハイエンドはTeslaとマスクを別にするほどメリットはないでしょう。
だからTeslaに搭載されている以上、ハイエンドにもつくだろうね。
ドライバや回路切断で無効化措置がとられるかもしれないけど。
0509デフォルトの名無しさん垢版2016/02/15(月) 20:41:01.96ID:dHmco+xc
GeForceに倍精度を載せないのはビジネス面からの理由で、
Teslaに倍精度が必要かどうかとはまた違う議論だよね

それからKeplar世代Teslaも最初1/12くらいだったのが1/3にまで上げられたのは
必要な人がいたからじゃないのかな。
4倍精度以上のライブラリがあることからも精度が必要な人はいると思うよ。

単品の精度はfloatでいいけど、累積誤差のせいで途中段階ではより高精度が必要という局面は多いんじゃないだろうか。
倍精度完全ゼロにしたらTeslaはこけると思う。
0510デフォルトの名無しさん垢版2016/02/15(月) 21:09:32.48ID:3Z78wnsj
Nvidiaが倍精度どころか単精度ですら要らないんじゃね?路線になった理由は明快
(AMDの)MantleがDirectX12とVulkanの取り込まれたから
ゲーム機は完全にAMD一色になったから、もはやゲームはAMD中心に動いている

全てのAAAゲームはCS機のローレベルAPIで組まれ、その成果をPCに持っていく形が定着した
従ってPCゲームは今までのように互換性や異種GPU間の翻訳を行うのをやめた
DirectX12はそこの所が根本的に違う

しかし団子はそこの理解がないから最初っから倍精度不要論をぶっていればまだかわいげがあったが、
ゲームに倍精度は不要だ!と言い出したのは、Pascalの仕様が明らかになってからw

それまでの団子は、NVはPascalに倍精度路線を復活させる!(キリッ
の一点張りだった
0511,,・´∀`・,,)っ-○○○垢版2016/02/15(月) 21:12:20.04ID:ZpISfAaX
> GeForceに倍精度を載せないのはビジネス面からの理由で、
> Teslaに倍精度が必要かどうかとはまた違う議論だよね

それは誰も否定してる人はいない

> それからKeplar世代Teslaも最初1/12くらいだったのが1/3にまで上げられたのは
> 必要な人がいたからじゃないのかな。

大型スパコン案件があったから。
Maxwell世代にはなくて、民間需要を探したら結局単精度しか需要が無かった
0515デフォルトの名無しさん垢版2016/02/15(月) 21:33:03.42ID:PRVxDG3b
弾道計算といったら大砲の弾やせいぜい弾道ミサイルといったイメージ
人工衛星は軌道計算というのが一般的だろう
0519,,・´∀`・,,)っ-○○○垢版2016/02/15(月) 21:50:22.85ID:ZpISfAaX
呼ばれてもいないAMDファンボーイが勝手にわめいてるだけでしょ

Async Shader(笑)なんてスパコンでは全く需要がないんですよ。
繰り返すけど、需要がないんですよ。

何千並列のGPUが動く環境ではそもそも同じGPUで複数スレッドを
動かす必要性そのものが疑問だし本当に別々のスレッドを多並列で動かしたい用途には
60コア240スレッドのXeon Phi向けの問題だったりする。帯短襷長。
0520デフォルトの名無しさん垢版2016/02/15(月) 21:54:15.47ID:dHmco+xc
>>511
>大型スパコン案件があったから。
Titanとかだよね。ということはやっぱりむこうの研究者もより精度がほしいってことなんだな。


>Maxwell世代にはなくて、民間需要を探したら結局単精度しか需要が無かった
そもそも民間にGPGPUの需要があるのかも疑問だな。
大学以外でほとんど導入してる事例を見聞きしたことがない。

F1や飛行機の気流計算とかには大規模サーバに積んでシミュレーションしたりしてるのかな?
あとは建築における風の影響とかさ。

普通は世代ごとにプログラミングとテストし直す手間考えるとCPU増設するよって考えに至りそう。
0522デフォルトの名無しさん垢版2016/02/15(月) 22:34:24.26ID:jCwjLRdK
>>514
>惑星探査機なんか発射時刻1秒のずれすら許されないレベル
その昔3ビットコンピュータの時代に米国は有人月探査をやってるんだが?
中共は弾道計算()にスパコンが必要なんだw
0523,,・´∀`・,,)っ-○○○垢版2016/02/15(月) 22:38:59.79ID:ZpISfAaX
月がいつ惑星になったんだ
的が大きすぎてスイングバイのタイミング計算も必要ないぞ
0524デフォルトの名無しさん垢版2016/02/15(月) 22:44:09.45ID:iMQPxQqI
月には本当に行ったのかね
よく帰ってこれたな

てかランディングよくできたな
よく月から離れられたな
0526デフォルトの名無しさん垢版2016/02/15(月) 23:23:28.51ID:jCwjLRdK
>>523
弾道計算がいつの間にか惑星探査に成るよりマシ
スウィングバイの計算ですらスパコンいらないのに弾道計算にスパコンが必要な根拠を早く示せよw
0527デフォルトの名無しさん垢版2016/02/15(月) 23:27:02.18ID:iMQPxQqI
それは使用者がどの程度の精度を求めるかってだけじゃね

キロか
メートルか
センチか
ミリか
マイクロか
ナノか
0528デフォルトの名無しさん垢版2016/02/15(月) 23:33:23.73ID:iMQPxQqI
ipadのdawソフトだって64bit floatで合成できるし
サンプリンレートだって96khzがつかえる

で、聞いて違いがわかるのかって話だわ

さすがに32khz(昔のrolandのdtm音源とかね)と44.1khzはわかるけど
0530デフォルトの名無しさん垢版2016/02/15(月) 23:54:48.03ID:6lA61DJG
科学技術計算で半精度が使えるのなんて、DLぐらいじゃねーの?
線形方程式を扱う問題は倍精度がないと使いもんになんないよ。
単精度で行けるのは、流体解析とかかな。
0533,,・´∀`・,,)っ-○○○垢版2016/02/16(火) 00:16:10.17ID:hr2Cmr1D
そこいちいち突っ込むなよ

↓この池沼レスに突っ込んだやつ何人いるよ

427 :デフォルトの名無しさん [↓] :2016/02/12(金) 22:41:27.77 ID:10CGBYPs (2/2)
今日の重力波観測にしたってあれは、理論屋が出したシミュレーションに従ってそれと同じデータを観測したわけだろ
そういうのが単精度/半精度で出せるわけねーだろ
0535デフォルトの名無しさん垢版2016/02/16(火) 01:07:09.51ID:uizCIs9N
惑星探査機の打ち上げ時に1秒のズレが許されないのは、もし1秒のズレが
起こるとロケット側の打ち上げシーケンスはリアルタイムに変更出来ない以上、
生じたズレを探査機側でカバーする必要があり燃料を大量に消費するから

ロケット発射時の1秒分に相当するズレが軌道計算時の演算精度によって
生じると示されない限りは今回の話の流れで例として出す意味は無い
0536デフォルトの名無しさん垢版2016/02/16(火) 01:22:51.47ID:Rkm/CQ33
>>533
話を逸らすな糞団子
GPUに倍精度が載らない理由としてお前が妄想で持ち上げた米政府陰謀論はどう始末すんだよ
いつの間にか惑星探査の話に誤魔化そうとしてドツボに嵌ってるし
どうやらお前には虚言癖があるようだな
それ精神疾患の初期症状だぞ
0537デフォルトの名無しさん垢版2016/02/16(火) 05:14:07.98ID:JyLDDdd2
こいついいかげんあたまわりーな
geforceにいらねぇってだけで
どこでgpuにいらねぇってかいてんだ

トットトキエロ無関係なamd信者
0538デフォルトの名無しさん垢版2016/02/16(火) 08:27:02.86ID:TSHTNtoJ
491 名前:,,・´∀`・,,)っ-○○○ [sage] :2016/02/14(日) 22:08:24.09 ID:vcWFNaoW
防衛上の理由として

北朝鮮や中共がGeForceを買いあさって弾道計算に使われたら困るから
消費者向けGPUは倍精度を削るのは当然でしょう
0539デフォルトの名無しさん垢版2016/02/16(火) 08:39:42.99ID:O+KKJC7C
missile guidance
コピペしてあげる

http://www.rugged.com/sites/default/files/High%20Perfomance%20GPGPU%20for%20Embedded%20Systems.pdf
http://www.nrl.navy.mil/itd/imda/sites/www.nrl.navy.mil.itd.imda/files/pdfs/HiFiRealtimeASCMModelingGPU.pdf


Accelerating Binary Genetic Algorithm Driven Missile Design Optimization
Routine with a CUDA Coded Six Degrees-Of-Freedom Simulator

https://etd.auburn.edu/bitstream/handle/10415/4900/BentonDaniel_Thesis_Fall2015.pdf
0543デフォルトの名無しさん垢版2016/02/16(火) 17:01:16.79ID:O+KKJC7C
missile guidanceって書いてんですけど
本当にアホなんだ
0550デフォルトの名無しさん垢版2016/02/16(火) 19:52:56.44ID:Rkm/CQ33
>>547
だからなに?
300flopsでいいならatomでも使えば?

弾道ミサイルと誘導ミサイルの区別もつかない知障が恥の上塗りしてどうする
0555デフォルトの名無しさん垢版2016/02/16(火) 21:52:57.09ID:Rkm/CQ33
>>553
お前さぁ何で個人ユース前提で話進めてんの?貧乏F蘭学生か?
悪いけどプライベートでゴリゴリコード書かんから家ではオンボードチップのみだよ

んなこといいから早く弾道計算()のソース探して来いや
0557デフォルトの名無しさん垢版2016/02/16(火) 22:55:41.72ID:Rkm/CQ33
>>556
お前、俺がAMD信者だと思いたいわけ?
残念だが単なるツールに思い入れは無い
そもそもプライベートではインテルHDだしな

ぶっちゃけ、AMDでもNVでも倍精度でも単精度でもどうでもよろしい

糞団子がおかしな事言ってるから突っ込んでるんだよ
さぁ話を逸らさず、早く弾道計算のソース探して来いやwww
0558デフォルトの名無しさん垢版2016/02/16(火) 22:59:58.46ID:r3FuaOqG
結局Asyncとか煽ってたのは団子だよ
そして株価ガーとまたぞろ論破された悔しさから関係ないバカッターぶり
0572デフォルトの名無しさん垢版2016/02/18(木) 00:59:56.44ID:yA7sr9oe
507 :,,・´∀`・,,)っ-○○○:2016/02/15(月) 20:06:18.36 ID:ZpISfAaX
もちろんそれが一番の理由だなんて言う理由はない
どうせ倍精度なんて使えてもそれこそ豚に真珠を与えるがごとき日曜プログラマの道楽のために
NVIDIAは会社を傾ける気はないのは確かだろう








団子いいこと言うな、その通りだよ
お前ごときが倍精度の存在意義なんかわかりゃしないんだから
そのままここから消えろ
0576デフォルトの名無しさん垢版2016/02/18(木) 22:55:07.89ID:yHWNW4Hi
確実に言えることは
こいつはCUDAより団子のほうが
興味があるようだってこと
CUDAスレなのにな
迷惑だから他でやって欲しい
0578デフォルトの名無しさん垢版2016/02/19(金) 12:26:53.00ID:3s8ITFfM
団子はインテルNVマンセー馬鹿に過ぎない
Fermiの時代は倍精度の必要性を謳ってたのまた団子
現在倍精度不要論をぶってるのはこいつが工作員である証拠
くだスレにはまったく不要
0579デフォルトの名無しさん垢版2016/02/19(金) 18:46:26.08ID:ktnruegg
>>575
団子はいくら言っても分からないようだから、そろそろ諦めてくれないか。
邪魔だし迷惑。

団子だけならNGできるんで、団子たたきはやめて、キッチリ完全スルーしてくれ。
0580デフォルトの名無しさん垢版2016/02/19(金) 19:43:08.21ID:3s8ITFfM
>>579
>、団子たたきはやめて、キッチリ完全スルーしてくれ。

NGだけなら簡単だが、こいつは倍精度を否定してるんだよ
そして名無しで煽ってるから問題だろうが
0583,,・´∀`・,,)っ-○○○垢版2016/02/20(土) 02:18:16.51ID:yfJQw59R
一般消費者向けのGPUで倍精度の性能は必要ないとしか言ってないんだけどな俺は
なぜなら、一般消費者の用途で倍精度の性能が必要でないからだ
トートロジーを並べてるだけだけどこれは普遍の真理。


倍精度特化のTeslaが使いたい人は使えばいい
だからこそなおさらGeForceが倍精度に特化しなければいけない理由はない
いつ倍精度そのものを否定したんだ?
0586デフォルトの名無しさん垢版2016/02/20(土) 08:36:03.80ID:deWWtRHc
>>583
はいはい
一般消費者向けのGPUから倍精度が削除されたのは米政府の陰謀なんだろw

お薬増やしおきますね〜
0587デフォルトの名無しさん垢版2016/02/20(土) 08:42:57.95ID:wJmoGGP6
お前のGPGPUプロジェクトが
どのように許容誤差見積を出して
倍精度を必要とそっちを語った方が
反論になるだろう
出せ
0588,,・´∀`・,,)っ-○○○垢版2016/02/20(土) 09:07:06.30ID:mQDXSMnA
>>585
Teslaにも倍精度に特化してないモデルもある
倍精度が強いのはあくまで「スパコン用のTesla」だ
それの流用版のGeForceやQuadroも副次的に倍精度が強かったこともあったが
GeForceに倍精度の需要があったからではない

GeForceで倍精度が速くないと困るとか言ってる手合いはろくに研究予算もつかない
ゴミ研究者かなんかだと思ってるが
(そんなものに拘ってるからろくな論文が書けないんだろ)
0589デフォルトの名無しさん垢版2016/02/20(土) 09:53:53.93ID:gxBCXYT2
>>588
>GeForceで倍精度が速くないと困るとか言ってる手合いはろくに研究予算もつかない
>ゴミ研究者かなんかだと思ってるが
おいおい、GeForceは一般消費者向けが前提じゃなかったのか?
糞団子は論点ズレまくりでまともに議論が噛み合ってない
0591,,・´∀`・,,)っ-○○○垢版2016/02/20(土) 10:18:51.16ID:mQDXSMnA
あるいは赤ポスにつけなかったおちこぼれか

いずれにしても「一般」消費者でありはしない
0592,,・´∀`・,,)っ-○○○垢版2016/02/20(土) 11:09:20.85ID:mQDXSMnA
所詮は自分が欲しいかどうかだけが基準点でもっと大きな市場のニーズを
理解できないアフォでしょう

大学院重点化の弊害ですね
就活失敗したようなレベルのゴミを研究室に引きこもらせたら
ますます世間知らずをこじらせるのも道理
0593,,・´∀`・,,)っ-○○○垢版2016/02/20(土) 11:18:36.93ID:mQDXSMnA
論文博士という日本独自の制度もたいがいだがな
3年間も通って単位取得だけしかできず学校を放逐されたゴミにも
なまじ希望を与えるからタチが悪いというか
0595デフォルトの名無しさん垢版2016/02/20(土) 13:08:52.37ID:kmGvjPZb
>>589
糞団子は論点をずらすと言うより、負け犬になるといつも違う話をする&名無しでスレ汚しだから
NGだけでは駄目なんだよ

本当はDX12でNVがハブられた事実を認めたくないために架空のでっち上げ話をしてる
その証拠にMaxwell世代以前のNVはニタドリサン(笑い)の話をだして市販のNVGPUが大学研究機関
に納入された事を自慢してたからな

こいつは単なるアンチAMDのステマ部隊

454 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 19:06:49.99 ID:dwcfM3wy
ゴードンベル賞で2度の受賞を経験したニタドリ=サンをして
天文学分野のシミュレーションは半精度程度の分解能があれば十分だって言ってるんだよ

453 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 18:48:25.54 ID:dwcfM3wy
倍精度必要論が否定されるから都合が悪いだけだろう?

重力演算のために長崎大がGeForce買いあさって作った激安スパコンだって
単精度特化仕様だったよ?
これもニタドリ=サンが協力している。古事記にも書いてある。
0598デフォルトの名無しさん垢版2016/02/20(土) 15:21:16.14ID:XuC13l9f
団子さんにコンプレックス持ってる病人がいるなw
0599,,・´∀`・,,)っ-○○○垢版2016/02/20(土) 15:32:40.26ID:mQDXSMnA
ただのAMDファンボーイだから
そもそもAMDはCUDAが使えないしCPUもAVXが半速のゴミしか出せないので
科学技術方面では全く役に立ちませんよ
0600,,・´∀`・,,)っ-○○○垢版2016/02/20(土) 15:35:44.85ID:mQDXSMnA
価格の安いコモディティ製品本来の用途外に流用するのがGPGPUの始まり
用途外を前提に設計しろなんてのは片腹痛い話ですよ
0601,,・´∀`・,,)っ-○○○垢版2016/02/20(土) 15:50:28.63ID:mQDXSMnA
ちなみに仮数の単精度は24ビット、倍精度は53ビット
積和ユニットのの複雑度は仮数のビット数の二乗にほぼ比例するので
実際には倍精度積和ユニットの実装コストは単精度の5倍よりも多い
0602デフォルトの名無しさん垢版2016/02/20(土) 15:52:58.65ID:AOSmisIg
>>597
倍精度特化じゃないCPUが1/2
イメージ的にはこれで普通

特化って言ったら単精度演算器を持たない、昔ながらのスーパーコンピューターみたいなやつ
0604デフォルトの名無しさん垢版2016/02/20(土) 16:14:51.99ID:T6EctyCF
>>602
要は技術を知らないバカが無謀な要求をしていると自白しているわけだな。

そもそもCPUは倍精度特化で、単精度は搭載している回路の半分だけ利用しておまけでつけているくらいの勢い。
正確には倍精度以上から降りてきたという方が正しいような気もするが。
0605デフォルトの名無しさん垢版2016/02/20(土) 16:19:59.15ID:XuC13l9f
うん、じゃCPU使ってなよ病気の人
CUDA関係ないからもう来ないでね
0606,,・´∀`・,,)っ-○○○垢版2016/02/20(土) 16:47:44.25ID:mQDXSMnA
逆に言うと倍精度をサポートしなければ同じトランジスタの実装コストで
5倍以上の単精度ユニットを実装できるということ

それがCPUとは別方向で進化してきたGPUの速さの根源
それを否定するのはGPUを否定するようなもの
0607デフォルトの名無しさん垢版2016/02/20(土) 16:51:35.52ID:T6EctyCF
>>606
んな事はねぇよ。
回路を流用すれば1/4や1/16での
倍精度演算は殆ど追加コスト無く出来る。それを削ったからといって増やせる単精度性能は20%も無い。

まあ、これが大きいから1/4でなく1/16を選択するのが通常なのだけど。
0608デフォルトの名無しさん垢版2016/02/20(土) 16:53:25.90ID:XuC13l9f
もうくんなつったろ
病人
0609,,・´∀`・,,)っ-○○○垢版2016/02/20(土) 16:59:15.42ID:mQDXSMnA
>>607
>>606のいうサポートっていうのはフルスピードの倍精度っていう意味
もちろん単精度を複数回(or複数ユニット)回して倍精度を実現してもいいが
それが現状のMaxwellなどの在り様なわけで
0611,,・´∀`・,,)っ-○○○垢版2016/02/20(土) 17:59:22.63ID:mQDXSMnA
あったとしてもどういう役回りかわからんでしょ

ぶっちゃけると単精度で分割処理するとはいっても実際には
倍精度フォーマットをデノーマライズして複数の単精度データに変換するハードウェアと
演算結果を組み立てて倍精度フォーマットに書き戻すハードウェアも必要だからね
そのビットフィールドの変換をソフトで処理したら1/16すら出ない
0612デフォルトの名無しさん垢版2016/02/20(土) 18:20:08.42ID:T6EctyCF
本来遅いハードでもdpどころか64bit整数の乗算も1/9で済むはずなのにそこはサボって24bit乗算器を16bitとしてしか利用していないんだよな。
0614デフォルトの名無しさん垢版2016/02/20(土) 20:26:03.16ID:kmGvjPZb
>>607
AMDのGCNアーキテクチャーのGPUは複数のコアを使うと倍精度の演算が出来るように設計してある
それがPS4/XBOに搭載されたものだから、ゲームは非常にGPGPUに強いんだよな
DX12とVulkanはGCNで最大性能を発揮できるように設計されたローレベルAPI

これが怖いからMaxwellは半精度FP16GPUになった
描画に特化してGPGPUが弱い
0616デフォルトの名無しさん垢版2016/02/21(日) 00:09:39.56ID:Qg7TSliE
>>614
ここはCUDA(言語)スレでGPGPUスレではない
AMDのGCNの宣伝したいなら、いまAMDはCUDAもある程度サポートしているらしいから、
AMDでCUDAしたときのベンチぐらい載せて宣伝してくれないか?
GPGPUのすばらしいぞ宣伝ならここでなくGPGPUスレでやれ
0622,,・´∀`・,,)っ-○○○垢版2016/02/21(日) 02:55:38.55ID:gnD1Eicx
>>618
プログラム書けないクソボケが居座る板でもないぞ
DQNのAMDファンボーイは自作PC板で妄想垂れ流してろクソボケ
0623,,・´∀`・,,)っ-○○○垢版2016/02/21(日) 02:57:56.81ID:gnD1Eicx
そもそもAMDのあれはCUDAを実行できるという理解は正しくない
CUDAのCソースをOpenCLに変換するトランスレータを作りましたという話で
PTXを実行できる環境を作るという話ではない
0626,,・´∀`・,,)っ-○○○垢版2016/02/21(日) 11:58:40.76ID:gnD1Eicx
>>624
AMDファンボーイはプログラムを書いたこともないから
AMDの開発環境の圧倒的なひどさを知らんのですよ
知識さえあればNVIDIA一択になる理由がわかる
0628デフォルトの名無しさん垢版2016/02/21(日) 12:19:33.63ID:MzI2quQP
>>625
いろいろと書かれてるのに、すべてお前が一般人は使わないと決めつけてスルーしてるだけ
プログラム板のCUDAスレッドなんだから一般人とは母集団が違うのは当たり前なんだが

お前が不要で、一般人の9割が不要でもこのスレ的には関係ない
0632デフォルトの名無しさん垢版2016/02/21(日) 12:47:19.67ID:bDXYj0yt
だれも倍精度不要なんて書いてないのにな。
倍精度特化がコンシューマ向けには必要無いと言うだけで。
0634デフォルトの名無しさん垢版2016/02/21(日) 12:58:04.21ID:YDVcjdw/
>>632
てめえはすぐに論破されると単発で煽りやがる
こういう奴だからこそこっちは不必要にNGだけでなく相手をしないといけないんだよ馬鹿野郎!

コテならコテだけで通せ!糞団子!

それから、NVがこれからGPGPUを捨てる根拠となるソースだ
実際にここで科学技術演算をされてらっしゃる皆さんもご覧になった方がいい↓
http://camera-pc.com/?p=578

結局これもCS機をAMDが独占したためなんだよな
0636,,・´∀`・,,)っ-○○○垢版2016/02/21(日) 13:28:33.48ID:gnD1Eicx
科学技術計算でAMDのGPUが上げた実績なんてないし
NVIDIAがHPCを重視する姿勢にも変わりはない

そもそもMaxwell世代に大型のスパコン案件が無かったから倍精度特化版を作ってないだけで
0637,,・´∀`・,,)っ-○○○垢版2016/02/21(日) 14:11:49.09ID:gnD1Eicx
ちなみにその個人ブログの主は科学技術計算に対してあまりに無知でお話にならない
ただカタログスペックのFLOPS数値を上げてヨシとするものではないのだわ

大規模システムはノード間のデータ転送帯域がものすごい重要で
NVLinkもその一環

AMDはカタログスペックありきで中身が無いし
実際2017〜18年の米国大型スパコン案件を何一つとして獲得できてない
0638デフォルトの名無しさん垢版2016/02/21(日) 14:17:28.22ID:YDVcjdw/
http://ascii.jp/elem/000/001/046/1046956/index-3.html
>Keplerの世代では倍精度浮動小数点のサポートの有無がこれにあたったが、
>Pascalはこの点ではMaxwellを継承しており、
>倍精度浮動小数点の性能は非常に低いと思われるので、ここでの差別化は難しい。

Pascalはここのスレ住人にとっては大変残念な事になるだろうな

その理由は先述したとおり、AMD準拠のDirectX12が策定された事でゲーム用GPUでNVは必死になって
電力効率の優位で喰らいつこうとしているためで描画特化でDX12世代に必須になるGPGPUを弱体化させた
トレードオフがある

倍精度とNVの関係は残念ながら離婚前の別居状態のようなさめた状態
0639,,・´∀`・,,)っ-○○○垢版2016/02/21(日) 14:23:54.76ID:gnD1Eicx
相変わらず知恵おくれだねえ
その記事を読んでもPascalの倍精度特化版が存在しないということは読み取れないがね

大型案件がつけばMaxwellの倍精度特化版も出す用意はあったくらいだし
少なくともPascalには客がついている
0640,,・´∀`・,,)っ-○○○垢版2016/02/21(日) 14:35:55.03ID:gnD1Eicx
倍精度の性能はスパコンでは今後も重要だけど
足回りの性能に見合わないほどのカタログスペックが必要かと問われれば
「必要ない」のが現実なわけで。

足回りの強化もなしにただ倍精度ユニットだけ並べておけばFLOPS数が稼げる
LINPACKベンチの実用性に疑問符が付くご時世ですからね
http://news.mynavi.jp/articles/2014/12/25/nvidia_coral/
0641,,・´∀`・,,)っ-○○○垢版2016/02/21(日) 14:50:22.35ID:gnD1Eicx
AMDが無様な全敗を喫した2017-18年の案件はDOEではPre-Exa世代という位置づけで
Exaにむけたスケーラビリティのための足回りの

IntelのOmni-Pathしかり、選定されたメーカーの製品には選定されるだけの裏付けがある
AMDにはインターコネクトに対して2018年にただちに用意できる対案が何もない。
そのスパコンの選考がとっくに終わってからこれから倍精度強化だとか
何も理解してないというか既に周回遅れ。
0642デフォルトの名無しさん垢版2016/02/21(日) 15:18:31.73ID:igZD1LUA
病気の人は倍精度特化のcpu使うって宣言してんだから
関係のないcudaスレにあらしにくんなよ
0643,,・´∀`・,,)っ-○○○垢版2016/02/21(日) 15:30:43.09ID:gnD1Eicx
Polarisは結局スパコンのデザインウィンを未だ1件たりとも取れてないんだよな
全てが無駄だったね
0645,,・´∀`・,,)っ-○○○垢版2016/02/21(日) 15:40:19.39ID:gnD1Eicx
たとえるなら阪神ファンがオフシーズンに東京ドームに居座って六甲颪を大合唱するレベルの
あつかましさ
0651デフォルトの名無しさん垢版2016/02/21(日) 22:12:15.14ID:gJEqj33V
http://www.livevolume.com/?page_id=14&;lang=en
このソフト動かしたいんだけど、nvidiaのカードが必要なんですか?
すいません、プログラムのプの字も知らない初心者です
pentium N3700でGPUがintel graphicなんですけど
やっぱりこの環境で動かすことはできないのでしょうか…
現状では「GLSL compile error」と出て描画ができません
もしスレ違いな質問だったら本当にごめんなさい
0653,,・´∀`・,,)っ-○○○垢版2016/02/22(月) 02:03:02.55ID:XUbrDPNF
果たしてそのマシンにGPUなんてつけられるだろうか?
ノートならG-Tuneあたりのゲーミングノート買うのが一番手ごろじゃなかろうか
(メーカー製ノートでもGeForce搭載機はあんまり見かけない)
0654,,・´∀`・,,)っ-○○○垢版2016/02/23(火) 17:44:18.03ID:U0HFk1NZ
スパコン案件の有無が倍精度版の有無を決めるというのは間違いないようで

NVIDIA Pascal based GP100 GPU to boast of 12TFLOPS SP & 4 TFLOPS DP performance
http://vr-zone.com/articles/nvidia-pascal-based-gp100-gpu-boast-12tflops-sp-4-tflops-dp-performance/106203.html

とりあえずTesla購入予定の方は何も心配いらないということです
悔しがるのはTeslaが買えない貧乏研究者とAMD厨だけでいいですよ
0657,,・´∀`・,,)っ-○○○垢版2016/02/23(火) 19:59:57.59ID:U0HFk1NZ
GeForceは個人用のGPUであって倍精度で科学技術演算のためのものじゃないんですよ
倍精度の性能に正規の対価を払おうとしない悪質ユーザーの梯子を外されたからって
何が問題なんですかねえ
0658,,・´∀`・,,)っ-○○○垢版2016/02/23(火) 20:14:34.27ID:U0HFk1NZ
倍精度ユニットの実装コストはロハではないので
メインで使う単精度の演算性能向上や電力効率の改善に振ったほうが
大多数のユーザーのためなんですよ

実質TeslaをGeForceの価格で売れと言ってるような倍精度乞食の言葉に
耳を傾ける必要はないのデス
0660デフォルトの名無しさん垢版2016/02/23(火) 22:13:43.75ID:/ZAu7LIh
NGにしてるから何かいてあるか知らないけど、どうせ相手にする価値がないことは>>659
から読み取れるw

このスレは研究者もヲチしてるだろうから言っておくけど、もうNVは倍精度は捨てるね
Felmi時代とは大違い

DirectX12(ウィンドウズ10)になるとAMDだけがローレベルAPIの恩恵に与れることを知ってるから、
Maxwell世代で素早くGPGPU切りの変わり身を演じた
今後は半精度と単精度の混合GPUばかりでCUDAはどんどん腐ってくるw
0663デフォルトの名無しさん垢版2016/02/23(火) 23:20:55.12ID:zq7ECeNv
>>660
なんかAMDが勝ち組でNVが負け組の様に書いてあるけど、実際は真逆だよ
AMDはゲーム機でなんとか持ちこたえてる状況で、NVはDL特需で歴史的な好況
GPGPUはCUDAがデファクトになりつつあるからAMDはほぼ詰んでる
まぁ、先の事は判らないけどね。
0665デフォルトの名無しさん垢版2016/02/24(水) 12:20:01.56ID:Ad4bERAY
>>663 >>663
まだ単発自演で俺をやり込めようってか?糞団子!
NVはもはや半精度でしか生き残りが出来ないんだよ!
このスレは倍精度の行方が一番大事なんだからてめえがいることが一番スレを汚すんだ馬鹿野郎!
0666デフォルトの名無しさん垢版2016/02/24(水) 12:31:29.64ID:dk01eTkb
倍精度の行方なら団子がソース付きで書いたけどね
結局NVIDIAがHPCから撤退なんてのは出鱈目な言いがかりと
0667デフォルトの名無しさん垢版2016/02/24(水) 12:47:40.23ID:dk01eTkb
ほれ

NVIDIA Pascal based GP100 GPU to boast of 12TFLOPS SP & 4 TFLOPS DP performance
http://vr-zone.com/articles/nvidia-pascal-based-gp100-gpu-boast-12tflops-sp-4-tflops-dp-performance/106203.html

そらあんだけのシェアとエンプラ向けの大躍進あればコンシューマ向けとHPC向けで
それぞれに合わせた演算ユニット構成のカスタマイズ費用くらい捻出できるだろう

そしてここはAMDについて語るスレでもNVIDIAをネガキャンするスレでもない
誰が場所をわきまえていないのか自覚したら?
0668デフォルトの名無しさん垢版2016/02/24(水) 12:47:59.45ID:jB1Q2gHg
>>665
おいおい糞団子と一緒にするなよ
ここはCUDAスレだぞ
倍精度の行方とかどうでもよろしい
お前自分が糞団子レベルになってる事に気付けよ
0669デフォルトの名無しさん垢版2016/02/24(水) 12:58:31.02ID:jXa1RnbL
浮動小数点数の精度なんて
コード組む側からすればどれも一緒だよ
倍精度だと収束するが
単精度だと発散するとか
それ単にコードの質が悪いだけだしね
何がそんなに気になるのかわからん
0671デフォルトの名無しさん垢版2016/02/24(水) 13:17:56.21ID:dk01eTkb
FireProがHPC向けでまったといっていいほど使われないのは
分岐粒度が荒過ぎて実効でスペックの半分も出ないとか
特定用途向けの商用ライブラリが用意されてないのか
それ以前の問題としてランタイムが頻繁にクラッシュするとか
結局のところトータルの問題なんだよね

単精度特化の一般のGPUで多倍精度使う場合は遅い倍精度を使うより
単精度DFTのほうがはるかに速い
0672デフォルトの名無しさん垢版2016/02/24(水) 14:12:53.97ID:s8sb75Sy
中小企業や個人開発のプログラムにもCUDA開発の無償支援してくれる
そういう実績があるからCUDAが鉄板になってるわけで

そういうことをやったためしもなければ大赤字でやれる予算も割けないAMDに
期待できることは何一つとしてない、これが現実
うちの商品はほぼ整数しか使わないだから倍精度実数が速いかどうかなんて
微塵も関係ない
0673デフォルトの名無しさん垢版2016/02/24(水) 14:34:29.38ID:Ad4bERAY
糞団子はコテ使ってると相手してくれないから寂しくて単発コテはずし作戦に出たのか?
NVはどう考えても半精度中心のグラフィックス/深層学習中心に経営資源をシフトしてるんだがw


http://ascii.jp/elem/000/001/046/1046956/index-3.html
>Pascalはこの点ではMaxwellを継承しており、倍精度浮動小数点の性能は非常に低いと思われるので
>Pascalはこの点ではMaxwellを継承しており、倍精度浮動小数点の性能は非常に低いと思われるので

大事な事だから二度言うぞ

>つまりPK100は半精度浮動小数点をサポートするが、PK104はこれをサポートしない(あるいは回路を持たない)可能性がある。

プロセスルール次第だが半精度に重心を置いていることは明白だな
0674デフォルトの名無しさん垢版2016/02/24(水) 14:41:47.70ID:Ad4bERAY
half2floatをPascalでは強化していくから、結局AMD対NVの戦いは「half2float」の描画特化対
「Async」の戦いになっていくんだろうね
0675デフォルトの名無しさん垢版2016/02/24(水) 14:51:49.40ID:NAMaIKUn
今後この馬鹿に一切かまうな
かまうから喜んで荒らし続ける
0676デフォルトの名無しさん垢版2016/02/24(水) 15:33:36.04ID:jXa1RnbL
どっかのニュースのコピペばかりで
うんざりするよ
自分の引き出しは空だと言っているようなものだ
0679デフォルトの名無しさん垢版2016/02/24(水) 17:55:56.67ID:Ad4bERAY
>>677
お前はAMDに一番興味あるだろうが糞団子!
お前が去ればこのスレは一気にクリーンになるんだよボケ
お前が一番危機感抱いてるのは倍精度をなくす方向のNVに対して非難が集中する事だけだ
だからこそお前が一番イラネーんだよ屑
0682デフォルトの名無しさん垢版2016/02/24(水) 21:04:29.34ID:Nmttufaz
>>681
お前はいったい何と戦ってるんだ?
日和ったの意味も違うしな
ここのみんなはAMDにもNVにも思い入れはないから
迷惑だから糞団子と一緒に消えてくれ
0685デフォルトの名無しさん垢版2016/02/24(水) 22:37:00.33ID:l5BeTFuC
>>683
ほんと真性基地だよな。日中でも必死カキコっていうのもな
この人、プログラムに関する話がでないことからして、プログラムやったことないんだろうな
0686デフォルトの名無しさん垢版2016/02/24(水) 22:56:49.71ID:teBWCRhn
>>671
分岐粒度が荒すぎってCPUとの比較なら未だしも、NVIDIAとの比較だったら普通そんなに差は出ないぞ。
差が出るのは64のうち前半もしくは後半の32がほぼ埋まっているのに、反対の32が完全に空みたいな状況が頻発する場合だけ。

まあCUDAからのベタ移植ならあり得ないこともないのだろうが。
0687デフォルトの名無しさん垢版2016/02/25(木) 08:17:21.70ID:qdgy2oNb
プログラムの話しようぜ
そうすれば団子その他プログラム書けない人が消えるだろうから
0688デフォルトの名無しさん垢版2016/02/25(木) 08:22:03.55ID:qdgy2oNb
>>686
まあそうだな
今のnVidia32、AMD64の設定は回路効率と性能効率を考えて美味しいところなんだろうか?
ただの惰性?
0690デフォルトの名無しさん垢版2016/02/25(木) 13:05:41.93ID:FCdE8jm8
>>680-683 >>685
糞団子は黙ってろ!
文句があるならコテ付けろやコラ!
テメエが鬱陶しいんじゃ、ボケ!

>>686
それも糞団子の自演だよ
NVIDIAの優位性は3dfxを買収した事で得られたソフトノウハウだな

自作板でもそうだけど、よくよく考えるとおかしな文面でごまかすのが団子
たいてい論破されるとどうでもいい専門用語を並べてイカスミ作戦に出る
0693デフォルトの名無しさん垢版2016/02/25(木) 17:48:12.65ID:8lu6Pire
>>690
あの程度の文面を理解できないほど技術に疎いのだな。

そもそも団子認定連呼廚のスタンスがよくわからん。
0699デフォルトの名無しさん垢版2016/02/25(木) 23:01:45.88ID:OUVaT1r5
nvidia ってC++AMPって力いれてるの?
CUDAが主力なのはわかるんだが。

OpenMPのようにC++AMPがいいところまでいってからtoolkitにマージするつもりなのか
それともC++AMPが自然消滅するのを待っているのかわからん。
0703デフォルトの名無しさん垢版2016/02/26(金) 00:04:42.12ID:sfGjrhZB
>>693
NVはC++AMPとか言うより倍精度をボリュームゾーンから外しにかかってるな
Pascalには全く期待できんよ
IBMの場合は大口契約だから安く調達するだろうけど、それだけ
いずれGPGPU用(テスラ)は値段を上げざるを得ないだろうなあ
0704デフォルトの名無しさん垢版2016/02/26(金) 00:18:06.49ID:XrDeqd+8
それなら死んでないでしょう。
スラストがCUDA用のライブラリと同様に
C++AMPで使うためのものだろうから。
0705,,・´∀`・,,)っ-○○○垢版2016/02/26(金) 00:46:50.10ID:au4AtN7W
Pallarel STLのバックエンドはC++AMPに限らずOpenACCやOpenMP(4.0), TBBでもいい
NVIDIAが推してるのはOpenACC, IntelはOpenMP
0706デフォルトの名無しさん垢版2016/02/26(金) 00:49:09.70ID:jDU7chRF
>>692
俺3dfxを知らないからググッタよ。イカスミ、かなりの歳なひとなんだな

C++AMPを使っている奴どれぐらいいるんだ?
0709デフォルトの名無しさん垢版2016/02/26(金) 01:36:18.43ID:1N9hBdg9
>>703
最初の頃のテスラは円高もあり、20万位だったが、いまじゃ80万くらいになってもうた。まあA30とかは120万くらいしたんだけど。
0710デフォルトの名無しさん垢版2016/02/26(金) 01:38:37.56ID:XrDeqd+8
>>705
そうだOpenACCだ。勘違いしてたよ。
C++AMPではなかった。
MSだけだとC++AMPはきびしいだろうね。
まだOpenACCのほうがめはあると思う
0711デフォルトの名無しさん垢版2016/02/26(金) 01:42:47.55ID:XrDeqd+8
>>709
その頃とくらべると開発環境がかくだんに良くなってる。
HWのコストだけでなく、そういうの含んでの価格だろうね。
0712デフォルトの名無しさん垢版2016/02/26(金) 03:40:06.50ID:VdCPJ0Vc
>>690
後半はまったくその通りだな団子
どこかで調べた用語を使うが、意味を良く分からずに使うからおかしな日本語になる
0713デフォルトの名無しさん垢版2016/02/26(金) 05:22:49.16ID:YzxqLjh+
nvはpgi買収してopenaccのコンパイラも力入れてるよ
doeのエクサスケールで使うのもcudaじゃなくてopenaccだし
0714デフォルトの名無しさん垢版2016/02/26(金) 05:38:13.56ID:mUz9Cfpw
「,,・´∀`・,,)っ-○○○」って鳥屋氏でしょ。
悪いけどここに同じレベルの人はいないんじゃない。
0721デフォルトの名無しさん垢版2016/02/27(土) 20:22:31.94ID:VXpwyn8O
囲碁ソフトにディープラーニングが使われ始めてるんだが、
CUDA対応ソフトもそろそろ来るかもしれん。
一般人にも身近な技術になるかもね。
0722,,・´∀`・,,)っ-○○○垢版2016/02/27(土) 20:27:20.16ID:WSIY1iVq
そのうち教えられたことだけしかコーディングできないクソPGもAIにとって代わられるんだろうな
0725デフォルトの名無しさん垢版2016/02/27(土) 23:58:13.35ID:Fq+Tn6zB
>>724
鳥屋氏の書いたコード見たことないでしょw
申し訳ないけど、ここにいる人たちとは次元が違うよ。
頭が良すぎて理解されないタイプ。
0730デフォルトの名無しさん垢版2016/02/28(日) 00:53:04.73ID:4gv2LXai
別人なのか?
,,・´∀`・,,)っ-○◎●
が持っているのは焼き鳥

,,・´∀`・,,)っ-○○○
が持っているのは団子
ということか
0733デフォルトの名無しさん垢版2016/02/28(日) 01:06:06.88ID:9kjNwUs3
っていうか●が名前欄に使えなくなった経緯も知らないんじゃ、鳥屋氏のことを知らなくても無理は無いね。
0734デフォルトの名無しさん垢版2016/02/28(日) 01:17:52.65ID:4gv2LXai
>>733
俺もだが団子と言っている奴は鳥屋時代のこと知らないだろ
>>725の言うような奴ならすごいCUDAコード披露して欲しいが
でも、雑談に必死なコテの荒らしって感じだからな。
とりあえず、鳥屋時代のコードどっかにないのか? 見てみたい気がする
0735デフォルトの名無しさん垢版2016/02/28(日) 01:18:45.52ID:TGNAvpkz
糞団子がどんなコード書くか知らんけど、弾道計算の件でシドロモドロになった事実は消えんぞ
所詮その程度の知的レベル
0736デフォルトの名無しさん垢版2016/02/28(日) 01:43:25.37ID:9IJglbed
>>713
速度自体は生でcudaやったほうが速いらしいから
これは開発効率を優先してPGIなのかね?
あるいは現時点ではいまいちでも今後の成長を鑑みてとかさ

さすがにdod,doeでも世代ごとのコード書き換えは負担なんだろうか
0737デフォルトの名無しさん垢版2016/02/28(日) 01:50:50.47ID:9IJglbed
キャッシュの増量やシャッフルIA、HyperQ,DP等を全部こみこみで考えると
1コアあたりの実効性能(flaot)はfermi, keplar, maxwellと上がってると考えていいのかね?

flops/core/clockではなくてflops/coreという意味で、かつ理論値での比較ではなくていかに実測値がでるかという意味で。
0740デフォルトの名無しさん垢版2016/02/28(日) 03:07:32.07ID:9kjNwUs3
>>738
あれ、中村氏もそのAAつかってなかったっけ?
とにかく鳥屋氏(=中村氏)はプログラミングの技術も問題に対するアプローチの仕方も異次元の存在だったな。
0741デフォルトの名無しさん垢版2016/02/28(日) 09:32:39.66ID:kqHim0z9
やっぱり団子って複数人いるよね?
すごく詳しい話をするとおもったら、なんか急に低レベルだったり、
てにをはが変わったりする。
0742デフォルトの名無しさん垢版2016/02/28(日) 09:40:16.99ID:uncqUlBQ
たまに二人の団子が会話することもあるぞ
0744デフォルトの名無しさん垢版2016/02/28(日) 11:43:53.32ID:F3rkrfCl
結局鳥屋が馬鹿団子の振りしてるだけかもだが、詐欺の天才は結局馬鹿より有害
NVのやる事は何でもマンセーではスレ汚しとしか言いようがない
CS機をAMDが独占したからNVは倍精度に手を出せなくなった、と言うといつも発狂
これでは冷静な議論が出来ない
0746,,・´∀`・,,)っ-○○○垢版2016/02/28(日) 11:51:31.77ID:5Pz55yFT
そっち界隈しばらくチェックしてなかったけど海外のハカー面白いことやってるね。

ちょうどCUDAに特化した話題だ。
MaxwellのLOP3.LUT命令を使ったビット演算の高速化テクニックについて興味ある人は
一度この講演ビデオ観ておくといいと思う。
http://www.irongeek.com/i.php?page=videos/passwordscon2014/bitslice-des-with-lop3lut-steve-thomas

実際問題AVX-512のvpternlogもLOP3.LUTと引数互換なんだわ
ぶっちゃけソース置換するだけで移植可能
0749デフォルトの名無しさん垢版2016/02/28(日) 12:18:13.04ID:F3rkrfCl
単発のお時間がきまちゅたね〜

鳥屋=糞団子が自作板からこっちのスレの巡回時間が来たみたいw
本当に鳥屋が使える天才なら2ちゃん談義なんかしねえな

10年前ならゲーム業界か、少し前なら京に関わるか
或いはアメリカでイラン向けバックドアを仕掛けるお仕事か…
どっちにしろヒマを持て余すようではお里は知れてる
0754デフォルトの名無しさん垢版2016/02/29(月) 16:54:00.73ID:XMRi5hV6
なんだかすごく質問しにくい流れなんですがいいですか?
バイトニックソートのプログラムを作ってみまして、
要素数512を境にGPUの方が速くなったのは良かったんですが、
要素数8192くらいからGPUの時間増加の傾きがCPUより悪化してしまって、
1048576ともなるとほとんど大差ないくらいになってしまいました。
これが普通なのか、おかしいのか、
おかしいなら原因として何がありそうか教えてほしいです。
一応可能なところはshared memory使ってますが、要素数256以降は
比較の組がとびとびになるはずなのでglobal memoryを直接読んでます。
以下、ソートを10000回繰り返した際の1回あたりの所要時間です。
要素数 CPU[s] GPU[s] CPU/GPU
2 0.00000 0.00004 0.004
4 0.00000 0.00005 0.008
8 0.00000 0.00005 0.011
16 0.00000 0.00006 0.020
32 0.00000 0.00007 0.036
64 0.00001 0.00008 0.099
128 0.00002 0.00009 0.229
256 0.00005 0.00010 0.522
512 0.00013 0.00013 1.027
1024 0.00031 0.00016 1.909
2048 0.00076 0.00025 2.975
4096 0.00179 0.00036 4.919
8192 0.00423 0.00068 6.248
16384 0.00933 0.00202 4.627
32768 0.02142 0.00637 3.363
65536 0.04903 0.01776 2.761
131072 0.10829 0.05003 2.165
262144 0.24928 0.13078 1.906
524288 0.54765 0.32437 1.688
1048576 1.22586 0.77101 1.590
0757,,・´∀`・,,)っ-○○○垢版2016/03/01(火) 00:01:36.14ID:9XwMWslZ
バイトニックソートはキャッシュメモリで収まる範囲内の小さなデータ集合に対して有効
サイズが大きくなるとGPUのローカルメモリから外れて大幅にパフォーマンスが落ちる
CPUのほうが低レイテンシ・大容量のキャッシュ積んでる分だけ有利になるわけだ

CPUのキャッシュに収まらない量になれば再びGPUのほうが上回るはずだ
まあそのレベルに達する段階でO(n log n)のソートの検討の余地があるが
0758デフォルトの名無しさん垢版2016/03/01(火) 00:02:13.26ID:epSXE3Ge
>>754
Nvidiaならおかしいことはよくある。気にするな
GPGPUでおかしいことをさけたいなら倍精度の自慢のAMDを使う
0759デフォルトの名無しさん垢版2016/03/01(火) 00:33:31.30ID:k65RqU8V
質問者がシェアードメモリって言ってるのにキャッシュとかいい加減なこと言ってる
シェアードメモリに言及しないなんてあり得ない
そもそもCUDA使ったことないんだろうな
やっぱ糞団子は低レベルだな
0761,,・´∀`・,,)っ-○○○垢版2016/03/01(火) 00:46:09.76ID:9XwMWslZ
GPUについてはどっちにも解せる「ローカルメモリ」と言い換えてる
ちゃんと読めない子は呼吸を止めて1秒あなた新鮮だけど煮魚
0762デフォルトの名無しさん垢版2016/03/01(火) 12:21:21.56ID:/z3eDKB8
>>759
結局団子を買いかぶってた奴は団子自身だろwwwwwwwwww
糞っぷりを言い触らされたくないチンケなプライドが虚勢を張りたくなる理由なんだろう
0764,,・´∀`・,,)っ-○○○垢版2016/03/01(火) 12:31:48.31ID:iam2QPf0
GMにマッピングされたメモリは一定の局所性があればキャッシュにマッピングされる
常識が通じないバカが勝手に自爆してるな
0765754垢版2016/03/01(火) 15:10:24.97ID:oQoWs5hY
>>757
キャッシュメモリ……
すいません、当方キャッシュについては不勉強でして、よくわかってません。
多分L1とかL2とか書いてあるやつだと思うのですが、手元の参考書が古い(6年前)もので……。
DeviceQueryだとL2 Cache Size: 524288 bytes って出るのでこれでしょうか。
Total amount of shared memory per block: 49152 bytes とか
Total number of registers available per block: 65536 とかもあります。
英語版Wikiの平均計算時間O(log(n)^2)parallel timeもよくわかってなかったりします。
log(n^2)なのか(log n)^2なのかよくわからんとです。
>>758
倍精度だと性能がうんたらとややこしかったので、単精度整数のソートなんです。
正確には同サイズの単精度整数配列2つを作り、
片方を基準にソートして、もう片方を一緒に並び替えてます。
構造体にしてもいいんですが、一緒に並び替えたほうだけが後々必要なデータでして。
最終的にはソートした結果を使って色々処理するためのプログラムなんですが、
現状だとこのソートで全体の8割くらい時間食っちゃってるんですよね。
ソートしなかったらもっと遅い(というかO(n^2)になる)ので無意味ってわけでもないんですが。

忘れてましたがGeForce GTX 760を使ってます。
以前機会があったので、別のGPU(GTX570だった気がする)でほぼ同じ計算させてみたこともあるんですが、
そっちだともっとマシでした。CPUより確実に速い、と胸を張って言えるくらい。
スペックの違いを加味しても、うちのGPUだけ下手したらCPUより遅いってのも変だなあ、と。
0767デフォルトの名無しさん垢版2016/03/01(火) 20:11:04.94ID:/z3eDKB8
要約すると団子の答えは答えになってない
0768754垢版2016/03/01(火) 21:01:21.25ID:oQoWs5hY
>>766
参照先読みました。キャッシュの話だったので自信はありませんが、
Fermi(GX570)世代のキャッシュは容量超えると(多分)通信の速いL1D等に退避されてたけど、
Kepler(GTX760)世代だと通信の遅いglobalに退避されるようになった、ってことですか?
さすがにアーキテクチャの仕様だと自分のスキルじゃ対応できません……。
>>767
答えになってないというか、私の知らない範囲の回答だったんでよくわからなかった感じです。
言ってることは766さんの参照先と多分同じなんだと思います。自信はありませんけど。

で、みなさん改善する方法はないでしょうか……。
大規模計算にウンタラ使うとカンタラがヤバいから避ける、みたいなことありませんか?
オプションにホニャララって追加すれば設定が変わる、とか(実はオプションもよくわかってない)。
大規模の時、キャッシュ代わりにあえてsharedを定義しても意味ないのかな…普通はないよな…
0769デフォルトの名無しさん垢版2016/03/01(火) 22:50:15.99ID:1eMSB1ZO
また団子が知ったかぶりをかましたのか!(呆れ)
0770,,・´∀`・,,)っ-○○○垢版2016/03/01(火) 22:57:33.44ID:xcdR7XnG
そもそもキャッシュはシェアードメモリの退避先ではなくグローバルメモリの一部の読み書きを高速化するためのもの
シェアードメモリに収まらないデータのソートで遅くなる問題なのでシェアードメモリは全く関係ない

アホが自爆すんなよ
0771,,・´∀`・,,)っ-○○○垢版2016/03/01(火) 23:00:19.76ID:xcdR7XnG
データ全体がキャッシュに収まらない場合はキャッシュローカリティを意識した演算順序の最適化をする
これはCPUでもGPUでも理屈は変わらない
0772,,・´∀`・,,)っ-○○○垢版2016/03/02(水) 00:01:12.12ID:Lh/popYV
自分の答えを示さず謂れのないイチャモン付けに必死になる奴ほど
スレにとって邪魔な存在はないね
0774754垢版2016/03/02(水) 01:23:35.90ID:n1GLxV/f
>>770-771
キャッシュローカリティって何さ…となったので、Google先生に勧められた
wikiの『参照の局所性』を読んで、ちょっとわかった気がします。
自分が作ったバイトニックソートは大規模データの場合、
各threadがほとんど毎回前回と異なる&近傍でもないメモリ参照することになるので
時間的にも空間的にも最適化ができてないみたいです。
ない知恵絞ってif文減らして実質1つにした結果がこれだよ!
あ、いや、thread単位はそうでも、warpとかblock単位で見れば近傍データなのか…?これはバンクの話か…?
実装のややこしさを飲み込めばシェアソートの方が参照の局所性は大きくしやすいのかな…?

まだよくわかってないことが1つありまして、
プログラム上では何万何十万の計算を並列に扱ったとしても、
物理的にはハード側の制限があるわけじゃないですか。
GTX760ならCUDAコア1152基なわけで、一万を並列化しても
実際には同時じゃなくて9回くらいに分けて順に処理する、みたいな。
となると、その9回で各CUDAコアは別のメモリを参照するわけなんですが、
この時前回のキャッシュって残るんでしょうか? 残らない…ですよね?
それともカーネルとしての処理が終わるまでは残るんでしょうか?
はたまたプログラムが終わるまでは念のため残しておく、とか?
キャッシュの利用自体が悪いんじゃなくて、
キャッシュにも収まらないデータ量がよくないってのはわかってるんですが、
なんかこのあたりの理解がまだ曖昧なんです。
0775754垢版2016/03/02(水) 01:46:45.38ID:n1GLxV/f
だらだら長文書いたわりに今自分の気になることからは逆に離れた気がする。
手っ取り早く要約すると、CPU↔メモリ(キャッシュ)の速度は
CUDAコア↔各種メモリの速度のどの当たりに相当するのか、でしょうか?
GPU内ならレジスタ>shared(キャッシュ)>globalの順で速いとかは聞きますけど、
もう一歩踏み込んで『この不等号の列に割り込ませるなら』CPUの速度はこのあたり、という指標が見つからないんですよね。
もちろん機種によって千差万別だとは思いますが、
傾向としてはこのくらいかなあ、みたいな話でもいいので教えていただけたら幸いです。
あ、もちろん>>774の質問も答えていただけると助かります。
キャッシュがよくわかってないのも確かなので。
0776,,・´∀`・,,)っ-○○○垢版2016/03/02(水) 01:48:15.90ID:Lh/popYV
後続の処理が走ってもデータが保持されるかどうか?
これについては実装依存としかいいようがない
なにせGPUはCPUと比べてもキャッシュの容量は小さいので
いつまでも今処理してないデータを保持し続ける理由も乏しい。

処理順序の並べ替えが可能なら、データアクセスの局所性に合わせて並べ替えることをお勧めする。
0777デフォルトの名無しさん垢版2016/03/02(水) 15:13:17.26ID:XnY+JUNw
この会話を分かりやすく噛み砕くとこういう感じか

754
GPUの並列化の最適化を教えてください

団子
シェアードメモリーガー

754
あの…ですからデータの並列化を…

団子
データアクセスの局所性ガー

754
・・・・(その並び替えが分からないんだけどなー)・・・・まあいいです
0779754垢版2016/03/02(水) 17:56:48.93ID:n1GLxV/f
あっ
0780デフォルトの名無しさん垢版2016/03/02(水) 18:46:16.76ID:nVGVVFPp
>>775
うーん、速さといってもデータ転送なのかレイテンシなのかで答えようが無いね。
レイテンシに関してはコアに近いところだとCPUの方がクロックが高いから圧倒的にCPUだね。
0781デフォルトの名無しさん垢版2016/03/02(水) 19:06:15.16ID:2uJZVygs
>>761
いやいや、CUDAユーザーならローカルメモリなんて言い方はしない
そもそもローカルではないし

SRAMはキャッシュとシェアードだけ
ボロ出しまくり糞団子
0782デフォルトの名無しさん垢版2016/03/02(水) 20:08:27.14ID:n1GLxV/f
>>776
なるほど。基本的に残ってないと考えた方がよさそうですね。
バイトニックソートは綺麗に並列化できちゃうので、並び替えは無理っぽいです。
>>778
Occupancy確認しました。ビンゴでした。4%とかなにそれクソ使えてない。
というか、よくよく確認したらsharedもまだまだ余裕があったので、
要素数256でsharedの利用を切り替えていたのを2048まで拡張しました。
8192越えたあたりで悪化し始める、という性質こそ変わりませんでしたが
sharedの恩恵を受けられる範囲が増えたおかげか悪化しつつも
約100万要素でもCPUより7倍強速くすることができました。これでOccupancyは50%。
100%にするにはsharedのサイズの設定を変えなきゃならないけどやり方わかんない…。
しかし、こんなアホみたいな理由で遅くなっていたなんて。
みなさまにはご迷惑おかけしました……。
>>780
やっぱりCPUですか。GPUの性能をフルに発揮させるには
それなりに大きい規模を並列化して誤魔化さないといけないわけですね。
0783754垢版2016/03/02(水) 20:12:34.57ID:n1GLxV/f
名前入れ忘れたりsage忘れたりしてますが>>782は754です。
IDで察してくださいすみません。
0784デフォルトの名無しさん垢版2016/03/02(水) 20:36:32.21ID:XnY+JUNw
迷アドヴァイスを見るに見兼ねたスレ住民のおかげで助かりましたとさめでたしめでたし
0785デフォルトの名無しさん垢版2016/03/02(水) 21:24:19.27ID:ewxUegIs
>>782
シェアードをローカルとか言う奴の事は聞かないように
GPUはシェアードメモリを使ってなんぼだから
0787,,・´∀`・,,)っ-○○○垢版2016/03/02(水) 23:53:33.06ID:Vx/0gvlz
てかFermi以降のSMはキャッシュを構成するSRAMの一部を
GMとは独立した空間のスクラッチパッドメモリとして割り当ててるだけなんだけどね
SMXが実質的なコアとみなすならシェアードメモリって別にシェアードでもなんでもないぞ
0788デフォルトの名無しさん垢版2016/03/03(木) 00:02:42.09ID:L7+NtMAj
ますます支離滅裂だな
シェアードメモリがシェアードじゃないとかCUDAの概念を全否定する発言じゃねぇか
つまりお前はCUDAの事なんか全く判ってない
ここはCUDAのスレだぞ
そろそろ出て行けや糞団子
0789,,・´∀`・,,)っ-○○○垢版2016/03/03(木) 00:24:01.33ID:HcahvuJO
まったく技術論になってないぞ
NVIDIAの用語がインチキ用語なのは今に始まったことじゃない
AMDのBulldozerのコア詐称以前からのコア数水増しやってるのがNVIDIA

命令ストリームレベルで見ればSMXが本来のコアで
CUDA Coreと呼んでるものはSIMDユニットの1エレメントにすぎない
0790デフォルトの名無しさん垢版2016/03/03(木) 00:48:19.47ID:OHZiW0+6
確かにCUDAというかNVIDIAの定義しているシェアードメモリは一般的なシェアードメモリとは違うね。どちらかというとローカルメモリといった方が正しいかもしれん。
0791,,・´∀`・,,)っ-○○○垢版2016/03/03(木) 01:01:39.27ID:HcahvuJO
同じコアだからこそメモリを介さずレジスタ上でシフト・シャッフルができる(Kepler以降)

CUDAのSIMTとは単純に32要素1024ビットのSIMDを32スレッドと読み替えてるだけ
この点はG8x世代から変わらないね
0792デフォルトの名無しさん垢版2016/03/03(木) 01:48:33.97ID:TCZfqrpq
自演会話すれば糞団子が味噌団子に変化するじゃないぞ?団子さんよお
0793,,・´∀`・,,)っ-○○○垢版2016/03/03(木) 07:58:21.23ID:HcahvuJO
自演認定しても頭がよくなりませんよ、他所者君
CUDAをちゃんと勉強してる人にはみんな知ってる事実だ
0794デフォルトの名無しさん垢版2016/03/03(木) 08:43:19.76ID:dzwxxNC2
また夜中の自演が始まったか
バレてないと思うところが糞団子だね
何度も言うがここはCUDAのスレ
僕の考えたシェアードメモリ論ならチラシの裏に書いとけ
0795デフォルトの名無しさん垢版2016/03/03(木) 09:02:21.96ID:HqLf1iVZ
CUDAでいうシェアードメモリはCPUでいう一次キャッシュだし、CELLで言うところのLSだから、SMメモリとかコアメモリとかにしておけばよかったのにね。
CUDAの黎明期はGPUをスパコンって呼ぶ戦略があったから、1スレッドを一コアに見立て、共有メモリだと言っていたのかもしれないね。
0796デフォルトの名無しさん垢版2016/03/03(木) 09:17:45.89ID:dzwxxNC2
>>795
それを言うならオンチップメモリ
少なくともソフトレイヤーではキャッシュとシェアードは別物
そもそもMaxwellではデータバスも異なる
んでここはCUDAのスレだ
スペオタと糞団子は去れ

>>792
cudaDeviceSetCacheConfigは試してみたのかな?
0797デフォルトの名無しさん垢版2016/03/03(木) 12:05:39.08ID:DYrHTZ2H
>>792
俺に聞かれてもなw
Occupancy確認してからスムースになってきたみたいだし、使わなくても順調ならそれでいいという
考えもある
0798,,・´∀`・,,)っ-○○○垢版2016/03/03(木) 12:34:58.87ID:Z97pa2Hq
ソフトレベルって言ってもなぁ
.cuやPTXのレベルならそうだろうがcubinレベルでみて言ってるんじゃないんだろ?

実際Sharedなんて言ってもSMX(実質上のコア)の中でしか参照できないんじゃ名前に偽りありとしか
SPMDをオレオレ用語で置き換えた概念で説明すればSharedなんだろうが物理的にはCellのSPUのLSと同じトポロジにすぎん
0799デフォルトの名無しさん垢版2016/03/03(木) 14:52:54.35ID:Qh2UpiXS
逆に複数のsmx間で共有されてたら
くそ遅いだろう
ローカルだから他のsmx気にしなくていいわけで
0800デフォルトの名無しさん垢版2016/03/03(木) 14:54:11.01ID:DdRI0anx
>>798
相変わらず頓珍漢なこと言ってるな
お前がどう思うかは全く興味がないから
ここはCUDAスレだ
CUDA使った事ない糞団子は去れ
0801754垢版2016/03/03(木) 14:57:08.65ID:FhaRPDaV
>>796
CUDA_Occupancy_Calculator.xlsで確認してたんですが、
CC3.0だと48kb/16kbと16kb/48kbの他に32kb/32kbがあるっぽくて、
32kbなら100%になる、みたいな謎結果が出てたんです。
で、うちの古い参考書にはその設定のやり方が載ってなかったんです。
だけどそのあと.xlsファイルを開き直したらなぜが100%になってました。
なんでやねん。
0802,,・´∀`・,,)っ-○○○垢版2016/03/03(木) 15:08:31.08ID:IfmnFgwQ
>>800
お前がCUDA使ったことないゴミだと自己紹介してることはわかったよ
俺は初代の8系から触ってるんだがな
墓穴ほり過ぎ
0803デフォルトの名無しさん垢版2016/03/03(木) 17:12:24.19ID:fEIbv9/m
また低脳の団子が自演かよ!?
いい加減にして欲しい
コイツがいるとスレが腐るんだけど(怒)
0804デフォルトの名無しさん垢版2016/03/03(木) 19:52:45.84ID:dqlRC1xd
>>802
初代から使ってそのレベルならお前には向いてないからもう諦めろ
結局質問者には何ひとつ有益な情報を与えられない低レベル糞団子
0805デフォルトの名無しさん垢版2016/03/03(木) 20:01:58.72ID:TCZfqrpq
>>801>>754
ああいう大人(団子)みたいになったらだめですよ(笑い
0806デフォルトの名無しさん垢版2016/03/03(木) 20:19:52.39ID:4mtdR8td
団子ちゃんは詳しいと思う。
0808デフォルトの名無しさん垢版2016/03/03(木) 21:01:42.18ID:KusOhd2G
               【親米涙目】 ★   ロシアがアメリカを一発KO   ★ 【反中逃亡】

  宇宙人側からの申し入れは、とにかく核の利用と戦争をやめなさい、もう一つは宇宙人の存在を公表しなさい。
 つけ足したのが、60年の猶予を与えましよう、2014年には発表しなければならなかったんですね、宇宙人の存在を。
     ロシアという大国の首相がね、あれは冗談だよでは済まないですね、しかも2回も言ってるんだからね。
                     https://www.youtube.com/watch?v=FIRXKetUkq8



           【親米屈辱】 ★   宇宙人いない派のおバカさん残念www   ★ 【反中赤面】

      NASAは、UFOに対して長年取ってきた態度のために、無用な組織とされることを恐れています。
                 マイトレーヤが公に現れるにつれて、UFOが姿を表すでしょう。
世界平和の脅威は、イスラエル、イラン、アメリカです。イスラエルの役割は跪いて、パレスチナに許しを請うことです。
                アメリカによる他国の虐待に反対の声を上げなければなりません。
    彼らは今世紀(21世紀)をこの帝国が出来上がるアメリカの世紀と呼ぶ。しかし、そうはならないだろう。
  彼らが世界中に‘民主的’制度を確立したいという衝動をコントロールするのは、マイトレーヤの任務である。
Q 経済崩壊が2015年から、テレパシー世界演説が2017年の初めなら、2016年に大戦でしょうか。A 大戦は起こりません。



   【親米命乞い】 ★   マイトレーヤのテレパシーによる世界演説は英国BBCが放送   ★ 【反中土下座】
                     https://www.youtube.com/watch?v=6cOvo6n7NOk

                マイトレーヤが世界に向かって話をする準備は良好に進行している。
  25分か35分くらいかもしれませんが、歴史上で初めて、世界的規模のテレパシーによる接触が起こるのです。
  テレビ中継はこの出来事のために存在するのであり、この時、初めてご自身の本当の身分を明らかにされます。
0809デフォルトの名無しさん垢版2016/03/03(木) 21:02:13.41ID:L7+NtMAj
はい、単発来ましたw

糞団子のどこが有益なんだ?
シェアードメモリの割り当て変更にも答えられずに、ローカルメモリとか嘘の情報垂れ流してる奴だぞ?
まともなCUDAユーザーならローカルメモリとシェアードメモリが別物なんて事は常識以前の問題だ
糞団子の自論なんか誰も聞きたくない
嫌われ者の糞団子は去れ!
0811,,・´∀`・,,)っ-○○○垢版2016/03/03(木) 22:12:39.51ID:vD1NzbLA
つーか自称シェアードメモリが実質的なLocalStorageでしかないことは知っておかないとハマる事例もあるんだけどね
SIMTはAVXユニットを8コア、Xeon Phiの1コアを16コアって読み替えるトンデモ抽象化
0812デフォルトの名無しさん垢版2016/03/03(木) 22:33:11.46ID:a8cmYHdA
自演するな!糞団子
0814デフォルトの名無しさん垢版2016/03/03(木) 22:51:35.86ID:L7+NtMAj
シェアードメモリをローカルメモリとか言う嘘を垂れ流してる事はスルーなんだな
簡単な初期化関数すらアドバイス出来ない低レベル糞団子

ちなみにシェアードメモリは自称でもなんでもなく公式な名称だ
気に入らないなら自分で会社起こして俺の考えた最強のGPUでも作ればいいさ
まぁ、お前のレベルじゃディスクリートすら無理な事は明らかだがな
早く去れよ糞団子
0815デフォルトの名無しさん垢版2016/03/03(木) 22:52:03.02ID:tH72Ij/h
さっき、Anacondaの最新バージョンである2.5.0(64-bit python3.5.1)を入れたの
だけど、それにコマンドプロンプトがデフォルトで入っていないので、pip installが
出来なくて困っています。ipythonやインタラクティヴシェルは入っています。

前のAnacondaのバージョン(python2.7で使っている)であれば、ipythonや
対話シェルからq()やquit()で、普通に、コマンドプロンプトに戻れて、そこから
pip installなどが出来たのになぜなのでしょうか。

普段使っているコマンドプロンプトはpython2.7用になっているので、そこから
python3.5.1用のpip installも出来ません。コマンドプロンプトをpythonのヴァージョン
ごとに切り替えることができるのかもしれないけど、その方法も分かりません。

どなたか、知っている人がいたら教えて下さい。
よろしくお願いします。m(__)m
0816デフォルトの名無しさん垢版2016/03/03(木) 23:25:12.80ID:L7+NtMAj
>>815
恐ろしくスレ違いなんだけど
python2系と3系を共存させるならパスを適切に設定しないとダメだよ
詳しくはググってくれ

取り敢えずコマンドプロンプトでpyって打ってからpipしてみたら?
0820デフォルトの名無しさん垢版2016/03/04(金) 00:13:03.67ID:HJiU7/Cc
>>816
パスは、最新のAnacondaをインストールする時に、パスを自動設定するなら
チェックを入れよという欄があって、チェックを入れてインストールを終了
すると、新しい環境設定が入っています。

念のためシステムで環境設定でパスをチェックしたけど、Anaconda3で、
新しいのが入っている。Anacondaは、3ヴァージョン使っている
のだけど、新しくなるほど使いにくくなっている感じですね。


q()でコマンドプロンプトに戻れると>>815で書いたのは、間違えだった。
それは、R言語のやり方だった。
0822デフォルトの名無しさん垢版2016/03/04(金) 00:25:56.51ID:HJiU7/Cc
今更の問題だけど、pythonはやはり、2系と3系の互換・移植性が
悪いのが問題かな。今日買った、

基礎 Python (IMPRESS KISO SERIES) 単行本(ソフトカバー) – 2016/3/4

大津 真 (著)

ttp://www.amazon.co.jp/%E5%9F%BA%E7%A4%8E-Python-%E5%A4%A7%E6%B4%A5-%E7%9C%9F/dp/484438015X

が、3系で、ちょっと変わった雰囲気のコードの使い方があったので、面白いの
だけど、2系と併用だと>>815みたいになって、pip installも出来ないし、
ipythonでしか、3系が使えないのが困りもの。2系で使える3系のものも
あるけれど…。

2系を全部消せば3系を使えるのは分かっているのだけど、2系の方が
出来ることがまだまだ多い感じがするからね。まだ2系が多数派でしょ。

あ、仮想環境ヴァージョンを切り替えてやればいいのかな。
0826,,・´∀`・,,)っ-○○○垢版2016/03/04(金) 01:15:03.88ID:qzn/KKB0
>>821
もっとも、スピルされたレジスタのデータが真っ先に格納されるのはGDDR*ではなく
キャッシュだけどな
なぜならキャッシュはDRAMの読み書きを高速化するためにあるから
0827デフォルトの名無しさん垢版2016/03/04(金) 02:24:38.67ID:pNMSyXd+
自覚のない荒らし
それが団子の糞風味クオリティ
0829デフォルトの名無しさん垢版2016/03/04(金) 07:50:34.02ID:o39fhgVG
>>826
>なぜならキャッシュはDRAMの読み書きを高速化するためにあるから
そんなパソコン教室の初日に教わる様な内容を語るスレじゃねぇよ
糞団子は去れ!
0835デフォルトの名無しさん垢版2016/03/04(金) 11:46:47.03ID:pNMSyXd+
団子ちゃん悔しいだろホントはおともだちをつくってワイワイ話したいんだろ?
じゃあ自作板帰ろうな
0842デフォルトの名無しさん垢版2016/03/04(金) 21:49:33.06ID:pNMSyXd+
ぼろ出してもコテでい続けるのは正直苦痛だろ?
















な、団子
0847デフォルトの名無しさん垢版2016/03/05(土) 07:44:33.94ID:I9HpfPeT
コテの人はいい加減ブログでもなんでも始めたらいいよ
荒らし行為だよ

コテ煽る人もやめてよ
0848デフォルトの名無しさん垢版2016/03/05(土) 09:30:50.56ID:pYtkFW+i
団子さん
お願いです。
あなたが来てからこのスレは機能しなくなりました。
ここは数少ないCUDAの情報交換の場です。
もう、ここに来ないで下さい。
0852デフォルトの名無しさん垢版2016/03/05(土) 11:18:09.46ID:nqZZ4Fac
最近は傷心の団子をおもちゃにするうんこごっこが流行ってるのか?
0854デフォルトの名無しさん垢版2016/03/05(土) 14:14:59.66ID:oAjMaO0h
つーかまともな話しようとすると団子認定されるのは書き込む気を無くさせるためなのだろうか。
技術的な話をすると内容がどうでも団子にされるから、そういう話が理解できないのと、ある意味団子崇拝が酷いのだろうな。
0855デフォルトの名無しさん垢版2016/03/05(土) 15:25:30.62ID:PxQJKL1y
>>849
団子はある程度(正しいかは別にして)技術的話が出来るけど、
その人はAMDは倍精度がすごいよ、GPGPUの勝者はAMDで決まり!と
I love 団子だけだからな。
0856デフォルトの名無しさん垢版2016/03/05(土) 16:26:59.56ID:nqZZ4Fac
あんまり団子をおもちゃにするなって
ウンコの匂いが充満するじゃないかw
0857デフォルトの名無しさん垢版2016/03/05(土) 16:43:06.41ID:hF4tqJh9
こんにちは。

CUDA では、__device__ 修飾された関数は、GPU内部から呼び出せますが、
再帰コールが出来ないのはなぜですか?

以下はできますよね?

__device__ int aaa(int x) {
 return x * 2;
}

__device__ int bbb(int y) {
 return aaa(y) + 3;
}

では、以下は駄目ですか?
__device__ int kaijou(int y) {
 if ( y == 1 ) {
  return y;
 }
 else {
  return y * kaijou(y-1);
 }
}
0858デフォルトの名無しさん垢版2016/03/05(土) 17:05:18.01ID:nqZZ4Fac
団子は答えなくて結構
0859デフォルトの名無しさん垢版2016/03/05(土) 17:17:05.46ID:oAjMaO0h
ハード的に絶対できないと言うことも無いのだろうが、スタックどれだけ使うか計算できないってのが大きいんじゃね。
0862,,・´∀`・,,)っ-○○○垢版2016/03/05(土) 21:10:49.87ID:18qofrJ5
>>861
俺ならその無駄レス書いてる暇で書けるぞ>>858は無能だから理解できないだけで

>>859
CUDAの自称コアが要素毎プレディケートつきのSIMDユニットを
マルチコアって言い張ってるだけから本物の独立したコアでないから
で終わりなんだけどね。
命令ポインタは「自称コア」ごとに独立してないんだ

「分岐」も本物の分岐ではなく、if-else節を全部一列のコードに展開してプレディケート
しているだけ。プレディケートビットの全要素が0あるいは1になって初めて関数を
飛び越えることができる。

SIMDの要素(自称)ごとに命令ポインタと関数コールスタックを管理できて別々の
命令ステートを独立して持てるならそれは既にSIMDじゃない
0863,,・´∀`・,,)っ-○○○垢版2016/03/05(土) 21:25:15.51ID:18qofrJ5
ベクトルを隠蔽しない、1ワープを1つのスレッドとして処理できるプログラミングモデルが
提供されるなら再帰は理屈上可能
それはCPUのSIMDの在り方と同じってことだけど
0864デフォルトの名無しさん垢版2016/03/05(土) 21:53:08.36ID:LlD1+gMh
独立したコアという前提だから、コア毎のレジスタで表現できる範囲の処理しか出来ないって事だと思ってたけど違うのか。
0865デフォルトの名無しさん垢版2016/03/05(土) 22:00:09.02ID:oAjMaO0h
基本はSIMDプロセッサでの本当の分岐だよ。
簡単な処理ならpredicate実行で済ますけどこれはモダンなプロセッサではSIMT、SIMD、に限らず一般的な手法

状態保存のメモリを最小化するためにdivergent pathを深さ優先でスキャンしていくから、どこかのdivergent pathで無限ループになるとwarp内の別threadには何時までたっても制御が帰ってこないけどね。
0866,,・´∀`・,,)っ-○○○垢版2016/03/05(土) 22:00:10.11ID:18qofrJ5
再帰だけならCell SPUすら出来てるからね
命令ポインタの制約のある偽りのコアであること以上の理由はないでしょう


末尾再帰をループに展開するオプションすら用意してないのは処理系の実装の手抜きだろうと思うけど
0868,,・´∀`・,,)っ-○○○垢版2016/03/05(土) 22:12:52.44ID:18qofrJ5
実害は具体的にはバックトラッキング型の探索アルゴリズムが使えない
(実装方法に制限がある)とかかな
0869デフォルトの名無しさん垢版2016/03/05(土) 22:24:17.32ID:oAjMaO0h
cudaは性能出すために最適化しだすと、結局SIMD構造を意識して記述することになる。
で結局、SIMTでプログラミングするメリットを感じなくなる。

scatter,gatherも便利なのだけど、それしかないから、性能出すためにアラインメント気にしながら連続アドレスにアクセスするように記述していると、普通のSIMDのようにアドレス1つ計算すればすむのに無駄だなぁと。

で、複数のアドレスを受け取ったハードウェアが同じキャッシュラインに乗っていることを検出してメモリアクセス回数を最小化するとか、バカじゃねと。

まあGCNはそこら辺の無駄に対応していて美しいのだが、いかんせんソフトやサポート体制がクソ過ぎて。
0870デフォルトの名無しさん垢版2016/03/05(土) 23:05:45.56ID:wCUhFShW
>>865
>状態保存のメモリを最小化するためにdivergent pathを深さ優先でスキャンしていく
横からですが参考になります。
再帰がまずいっていうより結果として条件分岐をたくさん通るのがまずいって感じですかね。
0871デフォルトの名無しさん垢版2016/03/06(日) 08:40:29.75ID:e28R5O2W
最近は、5,000円くらいの低価格GPUでも、Keplerコアを使っていて、
Fermiコアの上位互換だから、再帰コールも出来るのですか?

でも、関数のローカル変数は、C/C++と全く同じで、スレッド独立だが、
関数引数だけは、スレッド共通だと聞きましたが、これだと再帰コール
できなさそうですが。
0872デフォルトの名無しさん垢版2016/03/06(日) 11:18:07.40ID:5MH1CF8G
あーあまた糞団子が答えちゃった
このスレの事情を知らん奴が見ると余計に迷うぞ
0874,,・´∀`・,,)っ-○○○垢版2016/03/06(日) 11:48:38.53ID:ejwavTIm
つーか俺も含めてまだ正解出してないんだけどな

んで正解はこれ、Kepler以降なら再帰に【一応は】対応
http://developer.download.nvidia.com/assets/cuda/files/CUDADownloads/TechBrief_Dynamic_Parallelism_in_CUDA.pdf

誰かツッコミ入れると思ったけど期待外れだったなあ
まあ、俺の説明も何も間違ってないのだけど
(>>862も「出来ない」という説明をしてるのではなく制約を説明しているだけ)
0876,,・´∀`・,,)っ-○○○垢版2016/03/06(日) 13:12:58.97ID:ejwavTIm
お前は、中村ちゃぷにちゃんが中身の団子が存在すると思ってるんだ
そこから既に間違ってるよ
0878,,・´∀`・,,)っ-○○○垢版2016/03/06(日) 13:20:55.68ID:ejwavTIm
ちゃぷにさんはだんごやさんを嫌ってるはずなので彼がその顔文字を使う理由はないんだよ
自分でNGキーワードに入れてる宣言してたし
0879,,・´∀`・,,)っ-○○○垢版2016/03/06(日) 13:22:13.40ID:ejwavTIm
更に言うと彼は精神が壊れて自作PC板で機械翻訳コピペを貼るだけの人に成り下がってしまった
0880デフォルトの名無しさん垢版2016/03/06(日) 13:49:39.00ID:5MH1CF8G
団子=鳥屋でも別にいいじゃねーか
糞撒き散らすだけならどっちもNGだ
0890デフォルトの名無しさん垢版2016/03/07(月) 12:32:22.52ID:+p3ICmyk
頼むからNGの外に出てくるな>>889=糞団子
0891デフォルトの名無しさん垢版2016/03/07(月) 17:04:45.58ID:GuUCesj8
マジで氏ねよ!ここ糞団子!!
お前のせいでスレがめちゃくちゃ!
0898デフォルトの名無しさん垢版2016/03/08(火) 22:50:34.72ID:f+sFTvrc
2chやっているおっさんなら起きてから寝るまで2chが普通だろ
いまはスマホで仕事サボって2chしているおっさんが多いからな
0899デフォルトの名無しさん垢版2016/03/08(火) 22:59:24.25ID:8p7AV+as
>>898
今やちょっとゆる会社だと、トイレが満室になって10分待ちだからな。
0901デフォルトの名無しさん垢版2016/03/09(水) 00:03:43.04ID:QI7bsFp8
平日仕事サボって2chなら、まぁわからなくも無い
理解できないのは日曜日の朝から晩まで2ch張り付きの糞団子
0902,,・´∀`・,,)っ-○○○垢版2016/03/09(水) 00:29:18.66ID:EC2EcKU9
スマホゲーの体力ゲージ消化してるだけじゃね?
2chなんてとっくにブーム終わってるだろ
0903デフォルトの名無しさん垢版2016/03/09(水) 12:01:37.54ID:Bn2mru1A
>>901
話し相手が欲しいんだよ
スレをウンコ臭くしておいて
0907デフォルトの名無しさん垢版2016/03/09(水) 21:45:15.09ID:Bn2mru1A
コテ団子をNGにして華麗にスルーしないとね
名無しで煽る時は怒るんじゃなくてファブリーズでも置いておきましょう
0914デフォルトの名無しさん垢版2016/03/10(木) 22:07:55.24ID:Kwch6Nj+
ここはプ板のかまってちゃんが集うところです
Nvidiaユーザーってへんなやつ多いよね。どう?
0917デフォルトの名無しさん垢版2016/03/12(土) 13:14:03.96ID:7MrNfl0C
誰も居ない?
0919デフォルトの名無しさん垢版2016/03/15(火) 19:07:06.06ID:NepgFCLn
では素人が質問してもいいですか
オプションのCUDA RuntimeをStatic CUDA runtime library (-cudart static)にしているのにもかかわらずcudart32_75.dllが生成されるんですけど不要ですよね?
消しても動くのでいらなさそうではあるんですけど一応残してます
0922デフォルトの名無しさん垢版2016/04/13(水) 00:20:39.50ID:vTxSOF48
>>918
CUDAを使ったことがない連中がたくさん来場してたからな
CUDAは映像・画像処理の一般プログラムではなく専門性が非常に高い分野(機械学習や車の自動運転とか)で使うって感じに
なってきたからな。
0923,,・´∀`・,,)っ-○○○垢版2016/04/13(水) 00:37:51.36ID:uE1XEE4+
レジスタファイルがダイ全体で14Mもあるとかホント化け物ですね
アクセスレイテンシはでかそう
0925デフォルトの名無しさん垢版2016/04/18(月) 20:53:52.86ID:npM92plo
以前エクサスケールへむけての改良点てやってたけど
warpサイズが4になったりレジスタファイルの階層化とか
やってるのかな
0927デフォルトの名無しさん垢版2016/04/29(金) 19:49:33.11ID:F6Ql+W8p
Pascalは忘れられてるけど、倍精度も強化されてるんだよね
単精度を徹底的に削った思い切った方針には目を見張った
0928,,・´∀`・,,)っ-○○○垢版2016/04/29(金) 21:17:01.56ID:RuK53SvA
大型スパコン案件に特化して設計したものをGPUに流用してるだけで
それが全部だと言い張られても困りますが
0931デフォルトの名無しさん垢版2016/04/30(土) 11:52:36.46ID:xhIIf3AZ
高まるだろうね
倍精度と半精度がちょうどいい具合

そうやってGPGPU市場を頑張ってもらって12.1の妨害行為は止めて欲しいわ
0933,,・´∀`・,,)っ-○○○垢版2016/04/30(土) 22:33:42.88ID:wNNJHcCv
あれはCNNに特化したものでGPUほどのプログラマビリティはない
ディープラーニングって一言で言っても1個のASICで賄えるほど狭い分野じゃない
0935,,・´∀`・,,)っ-○○○垢版2016/04/30(土) 23:20:42.71ID:wNNJHcCv
疎行列に特化したマトリクス演算回路とそれなりの帯域のリングバスネットワークが主な構成要素
って覚えておけば大体間違いない
実はGPUの特性と正反対(GPUは密行列なら得意)
0938デフォルトの名無しさん垢版2016/05/01(日) 10:04:45.15ID:c2Ftkl1w
>>937
thx。

調べてみた感じだと、倍精度が無いカードで暗黙のdouble→floatキャストがあったり、
floatへの数値代入で接尾語Fを付けないとdoubleにキャストされたりもあるっぽいね。

fermiでarch=compute_20,sm_20指定してるから基本的には宣言通りだと思ったのだが、実際どうなってるのか・・。
全部floatに置き換えてもわずかしかスピードアップしないのは、バイトコピー分が浮いてるだけな気がする。
0939デフォルトの名無しさん垢版2016/05/01(日) 10:24:43.67ID:tKi6j9CT
匿名通信(Tor、i2p等)ができるファイル共有ソフトBitComet(ビットコメット)みたいな、
BitTorrentがオープンソースで開発されています

言語は何でも大丈夫だそうなので、P2P書きたい!って人居ませんか?

Covenantの作者(Lyrise)がそういう人と話したいそうなので、よろしければツイートお願いします
https://twitter.com/Lyrise_al

ちなみにオイラはCovenantの完成が待ち遠しいプログラミングできないアスペルガーw


The Covenant Project
概要

Covenantは、純粋P2Pのファイル共有ソフトです

目的

インターネットにおける権力による抑圧を排除することが最終的な目標です。 そのためにCovenantでは、中央に依存しない、高効率で検索能力の高いファイル共有の機能をユーザーに提供します

特徴

Covenant = Bittorrent + Abstract Network + DHT + (Search = WoT + PoW)

接続は抽象化されているので、I2P, Tor, TCP, Proxy, その他を利用可能です
DHTにはKademlia + コネクションプールを使用します
UPnPによってポートを解放することができますが、Port0でも利用可能です(接続数は少なくなります)
検索リクエスト、アップロード、ダウンロードなどのすべての通信はDHT的に分散され、特定のサーバーに依存しません
0941デフォルトの名無しさん垢版2016/05/09(月) 19:46:40.50ID:ZKk/r1uF
質問があります
環境はwindows 10 | arch linux, cuda 7.5, gcc | visual c++ 2013です

#include <stdio.h>

__global__ void a(char *A){
}

int main(){
a<<1, 1>>(); // (1)
}

(1)で「expression must have integral or enum type」とエラーが出て困っているのですが
ホストコンパイラを呼び出す際に何か間違えているのでしょうか

コンパイルに使用したコマンドは
windows
 nvcc -ccbin "C:\Program Files (x86)\Microsoft Visual Studio 12.0\VC\bin" -c -DWIN32 -D_CONSOLE -D_MBCS -Xcompiler /EHsc,/W3,/nologo,/Wp64,/O2,/Zi,/MT test.cu
linux
 (失念したが大体同じ)
です
0942デフォルトの名無しさん垢版2016/05/09(月) 23:47:16.41ID:+C4ZnXlR
>>941
≪≫のところじゃない?
二重カッコじゃなくて、三重カッコにすべきかな

二重カッコだと別の演算子になって、意味が変わってくる
0943デフォルトの名無しさん垢版2016/05/09(月) 23:54:10.06ID:ZKk/r1uF
ああ、3重括弧でしたか
間抜けなミスで騒いでしまって申し訳ないです
ありがとうございます
0945sage垢版2016/05/23(月) 17:33:55.45ID:w8cwn6FF
CUDA fortranで一つの配列に対して2GB以上のメモリを
アロケートすることが出来ず、
PGIのサイト見たら「2GBの壁」とかって説明されているのですが、
これってどうにか克服出来ないですかね?
0950デフォルトの名無しさん垢版2016/06/01(水) 19:25:08.39ID:XXwwXNx4
ttps://developer.nvidia.com/cudnn
>Supported on Windows, Linux and MacOS systems with Pascal, Kepler, Maxwell, Tegra K1 or Tegra X1 GPUs.
のTegra K1の文字を見て、サポート復活を喜んでいたのですが、
Tegra K1は32bitでして、
必要なCUDA7.5は64bit必須
もしかして、cuDNNとCUDAは無関係で独立して使えたりしますか?
0951デフォルトの名無しさん垢版2016/06/03(金) 02:14:25.16ID:qw00fiPh
CUDA APIで1番始めに呼んだAPIは時間がかかるとのことですが、
時間計測に影響が出ないように事前にどんな関数を呼んでますか?
慣習だったり、よく使われる関数があれば教えてください。
0956デフォルトの名無しさん垢版2016/06/12(日) 12:50:48.33ID:4gtPrZLr
この部分がエラー吐くんだが
cuda7.5

struct cuComplex {
float r;
float i;
cuComplex( float a, float b ) : r(a), i(b) {}
__device__ float magnitude2( void ) {
return r * r + i * i;
}
__device__ cuComplex operator*(const cuComplex& a) {
return cuComplex(r*a.r - i*a.i, i*a.r + r*a.i);
}
__device__ cuComplex operator+(const cuComplex& a) {
return cuComplex(r+a.r, i+a.i);
}
};
0958デフォルトの名無しさん垢版2016/06/12(日) 13:39:51.78ID:4gtPrZLr
>>957
そうそう
エラーはこんな感じ

Documents/Visual Studio 2013/Projects/template/cuda_by_example/chapter04/julia_gpu.cu(43): error
: calling a __host__ function("cu_Complex::cu_Complex") from a __device__ function("julia") is not allowed
0959デフォルトの名無しさん垢版2016/06/12(日) 13:50:41.56ID:MCoM6cvm
試してないけど、コンストラクタに__device__付けてないのが悪いと言っているような。
0963デフォルトの名無しさん垢版2016/06/16(木) 14:11:42.71ID:hLUHI1zp
615 :名前は開発中のものです。:02/06/10 21:48 ID:???
>将来的にはスカートの頂点を触ってヒラヒラさせたりしたいので、どうせシステムメモリーに
ボーンでやる気なのか?つらそー。

616 :◆CKmHzWpc:02/06/11 03:48 ID:zXaLQtp.
みなさんありがとうございます
1.モデルを分割するのが嫌→頂点シェーダ−を使うorシステムメモリに置いてソフトでやる
2.モデルを分割してもいい→ハードのジオメトリブレンドを使ってやる・・
というのが考えられる・・・んですよね
色々組み合わせを試して、高速なのを選びたいと思います

>>615
これは、スカートの頂点をCPUで直接操作しようと思っています
ボーンでやらずに、簡単なクロスシュミレーションのような事を目指しています
どうせモデルの一部をシステムメモリに置くなら、もう全部システムメモリにし
てもいいか、と思ったのです
0964デフォルトの名無しさん垢版2016/07/20(水) 14:03:52.95ID:S0wpPWZM
tess
0965デフォルトの名無しさん垢版2016/09/02(金) 13:17:38.94ID:W3BuWeJb
erlangならね
0966デフォルトの名無しさん垢版2016/09/06(火) 19:38:14.96ID:MfZbc6Jb
まだ埋まってなかった
0967デフォルトの名無しさん垢版2016/10/03(月) 10:11:13.82ID:1bWakqV9
pascal titan xでcudaを動かしている人に質問ですが高負荷時にクロックダウンは起きませんか
0968デフォルトの名無しさん垢版2017/02/11(土) 05:41:42.45ID:GCRxMqXs
埋め
0973デフォルトの名無しさん垢版2017/05/07(日) 11:40:19.10ID:ehHyxLGM
a.exe: a.cu
nvcc -Xcompiler "/wd 4819" a.cu -o a.exe

ウインドーズでメイクファイルで上みたいにやってクダーCコンパイラーでコンパイルしたんですけど
コマンドラインにちゃんと
nvcc -Xcompiler "/wd 4819" a.cu -o a.exe
と表示されたあと
wd
4819
c1xx: fatal error C1083: ソース ファイルを開けません。'略':No such file or directory
a.cu
c1xx: fatal error C1083: ソース ファイルを開けません。'4819':No such file or directory
と出ます。たぶん"に囲まれた中の/がメタ文字じゃないのになぜか消されているとおもうんですけど
なぜエラーになるのか教えてください。
/を//あるいは-に置き換えたらちゃんとコンパイルできました
よろしくお願いします。
" /wd 4819"と"と/の間にスペースを入れても出来ました。
10011001垢版Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 1065日 22時間 39分 42秒
10021002垢版Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況