cudaコア数だけなら国内では未発売のMX570がMXシリーズなのに2000コア達成してるんだなw
でもVRAMが小さ過ぎる
これならGTX1660tiあたりの方が深層学習向けならまだ良い、
とは言っても、VRAM8GBないと画像中の物体検出すらあまり精度が期待できないからなあ

一方でRTX3060に8GB版が出来ちゃって、今後はお金は足りないけど中古で12GBのVRAMで出来た!
という選択肢がちょっと減ってしまう(or中古だと販売元に余程確認しないと買うものが8GBか12GBか区別できない)事になる

2060も6GB12GBが混ざってる状態だから、この辺は厄介だな

4080が(デスクトップで)16GBオンリーになりそうなのはちょっと安心したが
それでも3080から4080でCUDAコア数の伸びが少な過ぎる
3090→4090の方は、めっちゃ増えた!って感じだが

4070で12GB、4060で10GBとかになればいいんだが
またどうせ4060で8GBとかになるかなあ
いい加減、モバイル用で6GBもやめて欲しい所w

1070tiだとSLIとかがが使えるが、深層学習をするだけならSLI無しの只の複数挿しでも
VRAMを増やせるしスピードも2倍でなく1.7倍くらいなら行ける!って話がある
それだと中古で物凄く安くなってる1070の2~4枚挿しでいいんじゃね?って人もいる
この位になるとBERTの軽量版とかを使える

1つ画像分類モデルを作るためにはかなりのVRAMが要るが、出来たものはずっと小さなVRAMで良い
だから複数回画像分類モデルを使うプログラムを書くなら個別に作っておいて出来たhdf5ファイルを
複数個、状況に応じて呼び出す(その時にGPUの使用メモリを少しずつ制限しておく)なんてのが
必要な作業もある