X



【NVENC/VCE】ハードウェアエンコーダーを語るスレ【QSV】

レス数が900を超えています。1000を超えると表示できなくなるよ。
0001名無しさん@編集中 (ワッチョイ 4381-Xflc)
垢版 |
2018/08/08(水) 04:44:09.82ID:NnYmcXUx0
ソフトウェアエンコーダーに画質は劣るものの、エンコード完了までの処理速度が爆速なハードウェアエンコーダーを語りましょう

●Intel
https://software.intel.com/en-us/media-sdk
https://en.wikipedia.org/wiki/Intel_Quick_Sync_Video

●NVIDIA
https://developer.nvidia.com/nvidia-video-codec-sdk
・エンコード: https://en.wikipedia.org/wiki/Nvidia_NVENC
・デコード: https://en.wikipedia.org/wiki/Nvidia_PureVideo

●AMD
https://github.com/GPUOpen-LibrariesAndSDKs/AMF
・エンコード: https://en.wikipedia.org/wiki/Video_Coding_Engine
・デコード: https://en.wikipedia.org/wiki/Unified_Video_Decoder
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured
0812名無しさん@編集中 (スプッッ Sd82-tRBg)
垢版 |
2019/02/12(火) 17:49:48.44ID:8v6Zrr0ed
>>811
TU117=GTX1650除外だから、
hevc 目当てなら1660買っとけってことか
0813名無しさん@編集中 (ワッチョイ 8de7-OF6d)
垢版 |
2019/02/12(火) 17:56:25.56ID:aWs0QX+90
>>810がちょっと誤解を生む表現だったので補足。

B-FRAMES AS REFERENCE自体はSDK8でサポートされてた機能で
H.264限定で、NV_ENC_BFRAME_REF_MODE_MIDDLEというモードだけ指定できた。
NVEncCなら --bref-mode middle。

HEVCではBフレームがサポートされてなかったので、当然B-FRAMES AS REFERENCEも使えなかったし、
SDK8ではそれに関する設定をすることもできなかった。

SDK9でHEVCでもB-FRAMES AS REFERENCEの設定ができるようになり、
更にNV_ENC_BFRAME_REF_MODE_MIDDLEだけでなく、NV_ENC_BFRAME_REF_MODE_EACHも指定できることになった。

NVEncCがSDK9に対応すれば、--bref-mode each/middle がHEVCで使えるようになって、
それを使えばTuringのHEVCエンコード品質が多分更に上がるものと思われる。

という流れです。
0817名無しさん@編集中 (オッペケ Srd1-5caY)
垢版 |
2019/02/12(火) 18:13:40.71ID:V0SkQvoCr
>>816
ありがとうございます
いま大量エンコードでTSファイル保存勢を辞めている所ですがもう少し待ったほうが良かったか、、現状で満足はしていますが残念っ
0818名無しさん@編集中 (ワッチョイWW d154-irfR)
垢版 |
2019/02/12(火) 19:39:25.03ID:rrOD0+rV0
まさかの1660待望説到来なのか?
でも1660はメモリーが6GBまでかと思われるが、4Kとかをエンコードしたりデコードしたりした場合に何か影響が出たりしないのかな?
0825名無しさん@編集中 (ワッチョイ 8de7-OF6d)
垢版 |
2019/02/13(水) 00:11:02.45ID:vHGN6yin0
NVEnc 4.31

[共通]
・NVENC SDK 9.0に更新。NVIDIA グラフィックドライバ 418.81以降が必要。
・HEVCエンコ時のB ref modeの設定を追加。(--bref-mode middle/each)

[NVEnc.auo]
・設定画面に「品質(--preset)」「Bフレーム参照モード(--bref-mode)」を追加。

[NVEncC]
・--presetをreadmeに追加。
 
 
速いもうできたのか的な。
0829名無しさん@編集中 (ワッチョイWW d154-irfR)
垢版 |
2019/02/13(水) 22:24:30.74ID:EGETJ5UR0
>>828
やはり動画の再生やエンコード用途ならばGPUのメモリーは、そんなにたくさん詰む必要はないわけだね

ちなみにGTX1660の世代がエンコードユーザーにとってはRTX世代より有利なのは間違いないのかな?
0833名無しさん@編集中 (ワッチョイWW d154-irfR)
垢版 |
2019/02/13(水) 23:51:26.10ID:EGETJ5UR0
>>832
!!

よくよく調べると、
■TU117(つまりGTX1650)
・HEVCのBフレーム非対応
・インターレース信号をインターレースのままエンコード対応
のPascal世代相当

■TU116(つまりGTX1660Ti及びGTX1660)
・HEVCのBフレーム対応
・インターレース信号のままでのエンコードは非対応
のTuring世代

で、エンコードやデコードに関しては、特段TU116だけ何かが特別良くなるわけではなく、あくまで他のTuring世代と同等

ということで良いのかな?
0836名無しさん@編集中 (中止 7fa7-GvlG)
垢版 |
2019/02/14(木) 10:58:21.49ID:bfnbZDEx0St.V
業務用のエンコーダを買えば完璧。2桁値段が高いけどね。
0843名無しさん@編集中 (ワッチョイW 0733-633A)
垢版 |
2019/02/15(金) 00:07:22.26ID:RhJUmx2L0
>>842
ありがとう!まさかこんな所にあるとは気づかなかった!!

あと、もう少し教えてほしいんだけど、QSVの場合は「ハードウェアデコード」のチェックはオン?それともオフ?
ググってみると両方あるし、そもそもエンコードしてるのにデコードの設定があるのもよくわからず困ってる。
0845名無しさん@編集中 (ワッチョイWW 5f08-quza)
垢版 |
2019/02/15(金) 01:52:08.57ID:lNnrUGx50
1660は本当にエンコユーザー御用達になりそう

噂ではTensor Coreも載るみたいだし
将来的にTensor Core対応のwaifu2xみたいな超解像やノイズ処理のソフトが出ててきも使えるかも知れないし
0847名無しさん@編集中 (ワッチョイ 5f46-yQ/S)
垢版 |
2019/02/15(金) 18:16:20.21ID:Zdt6+lgC0
知ってて当たり前の事だったらごめんなさい
TuringでHEVCのBフレーム対応ができるようになるようだけど
Pascal以前のGPUを使った時Bフレーム対応の部分だけCPUに計算
させる事はできるのかしら?
0854名無しさん@編集中 (ワッチョイWW 475f-ccy2)
垢版 |
2019/02/17(日) 08:19:57.63ID:/ziM33B60
速さ的にもデコードもエンコードもHWでやった方が速いんだけども

デコードされたデータをGPUに受け渡すよりデコードされていないデータ渡す方が接続バス通すデータ量小さいし、CPUの処理を待つ事自体がボトルネックなる
要は「丸投げ」が一番速くて電気も食わないのよ
CPUとHWのやりとりする量を手数を最小限にするすれば、バスを通してのデータのやりとりする量も、処理待ちや伝達待ちも発生しないのだから、電気も食わないし処理も速い

Bフレームの処理だけCPUってのも、それが出来たとしてもHWで中途まで処理した内容(生のフレーム情報だから無圧縮で肥大化している)をバス通してCPUに戻して、CPUで処理した内容をまたバスを通して戻すという手間が増えまくるうえ
HWはCPUの処理を待つ間処理が止まるし、I/P/Bフレームの比率考えればBフレームが多いほどCPU処理比率上がってHWエンコードの意味が無くなっていって、品質も速度も極めて半端にしかならんのよ
0859名無しさん@編集中 (ワッチョイ 5fab-A2tD)
垢版 |
2019/02/19(火) 20:28:15.13ID:q9p+Au5b0
レトロゲー(640x480)の実況動画をつべにアップしようと思うんだけど
せっかくつべがFullHDや4kアップに対応してるんだから低解像度のレトロゲー実況動画も
FullHDか4kくらいにアップスケールしてからアップロードしてみたい

ハードウェアの力を使って低解像度動画を高解像度動画に綺麗にアップスケールしてくれる技術って無い?
ちなみにグラボはAMDのR9 290
0860名無しさん@編集中 (ワッチョイW 5f02-ANW0)
垢版 |
2019/02/19(火) 21:33:42.83ID:I/QneAzk0
>>859
おそらくあなたの想像や、このスレの趣旨とはズレるが教えてあげよう。

480pソースでもGV-USBのようなSDキャプチャではなく
初めからから720pまたは1080pにアプコンして収録するのが一番綺麗になるよ

レトロゲーム機

フレームマイスター
https://www.amazon.co.jp/dp/B00FC38XDQ/

HDMIキャプチャ
0861名無しさん@編集中 (ワッチョイ 5fe7-cT+3)
垢版 |
2019/02/19(火) 22:17:25.77ID:aKEtg7+S0
>>859
レトロゲーならいっそのこと Nearest Neighbor で拡大するとか。

waifu2x系は
  https://github.com/YSRKEN/aviutl-waifu2x-w2xc
とかならOpenCLの利用も可能らしいから一応AMD GPUを使うと言えるかな。
自分で使ったことは無いし、レトロゲーの拡大に向いてるかどうかは知らない。

ちなみにNVIDIAのRTXシリーズなら、NGX SDKが公開されればDLVSR(Deep Learning Video Super Resolution)ってのが
使えるようになるらしい。まだアーリーアクセスの段階だから無理だけど。
まあこれもレトロゲーの拡大に向いてるかどうかはわからないけど。
 https://developer.nvidia.com/rtx/ngx
 https://docs.nvidia.com/rtx/ngx/programming-guide/index.html#dlvsr
0862名無しさん@編集中 (ワッチョイ 5fab-A2tD)
垢版 |
2019/02/19(火) 22:30:31.31ID:q9p+Au5b0
>>860
エミュレーター使ってるから直接画面キャプチャしちゃってるのよね(小さな声

>>861
waifu2って始めて聞いたからググってみたけど

 アニメ調の画像を高品質に拡大できるツール。与えられた画像を“縮小されたもの”と解釈し、
 その元の姿を機械学習を利用した人工知能で推測、復元する仕組み。
 https://forest.watch.impress.co.jp/library/software/waifu2xcaffe/

ほえー、こんなもの出来てたんだ
機械学習でスケールアップする、それもGPUを使って高速に
面白そうなのね
0864名無しさん@編集中 (ワッチョイ c701-8zyB)
垢版 |
2019/02/19(火) 23:05:02.20ID:T0cQYW6U0
AMD VCEってNvencみたいに同時エンコード制限(上限?)的なのってあるの?
Nvencのチップ別仕様表はあるんだけど、VCEの仕様表は見つけられなくて
誰か知ってたら教えて欲しい。

できればPolarisアーキとVegaアーキ
0865名無しさん@編集中 (ワッチョイ a72f-cT+3)
垢版 |
2019/02/19(火) 23:22:02.69ID:lzXhNQAu0
25分程度のDVDアニメを全コマ画像化してwaifu2x-caffeでgtx1080ti使って拡大してから再度動画にしたら2日がかりだったぞ
そんなことしなくてもエミュ自体に大抵は拡大処理機能が付いてるだろうから画面を拡大した状態でキャプチャしたほうが綺麗だよ
あたりまえだけど違法ダウンロードしたソフトで遊んでる証拠動画はアップしないようにね
0866名無しさん@編集中 (ワッチョイ 5fe7-cT+3)
垢版 |
2019/02/19(火) 23:47:51.70ID:aKEtg7+S0
>>865
エミュのことはよく知らんけど、そんなに複雑な拡大アルゴリズムを実装してるとも思えないし、
だとしたら元解像度でキャプチャしたものをLanczosなりなんなりで拡大したほうが綺麗になるのでは?
0867名無しさん@編集中 (ワッチョイ a7e3-cT+3)
垢版 |
2019/02/20(水) 00:15:31.07ID:1thanAsh0
>>857
はえ^〜サンガツ
デコードのほうもQSV指定する必要があったんすね

>>859
エミュレーターに描画の時点で内部解像度を変更できる設定があるから「機種名 高画質化」でぐぐると幸せになれるゾ
0869名無しさん@編集中 (ワッチョイ a72f-cT+3)
垢版 |
2019/02/20(水) 00:42:21.00ID:HYT3Wqh40
>>866
そもそも前提となる条件があやふやなのに断定するような書き方するのは良くなかったね、すまない
元動画を何かしら圧縮して保存していたら拡大したときにノイズが目立ちやすいから
元からFHDなりでキャプチャしたほうがいいと考えたんだ
エミュの拡大アルゴリズムまで考えが至らなくて恥ずかしいよ
0870名無しさん@編集中 (ワッチョイW 5f02-ANW0)
垢版 |
2019/02/20(水) 00:49:14.68ID:PjY9X1HC0
>>862
そうか。
他の人にも言われてるけど、エミュをフルスクリーン表示にして、それをそのままフルスクリーンキャプチャするのが一番楽に高解像度ソース作れるんじゃないか

片方全画面ゲーム、片方PC画面にできるデュアルディスプレイ環境にすると尚良し
0872名無しさん@編集中 (ワッチョイ 5fbb-8lxC)
垢版 |
2019/02/20(水) 03:31:26.68ID:N+NLsuJ60
>>594
> 単価の安い20nmあたりでNVEncボードとか
> エンコードならDDR4でも間に合うし、

いいね! 素晴らしいアイデア。

ぜひ”NEW Product Requirement”として
nVidia にメールしてください!
0877名無しさん@編集中 (ワッチョイWW 475f-ccy2)
垢版 |
2019/02/20(水) 12:38:24.77ID:57uQlkDl0
Tensorコア使った超解像フィルタどうなったんだろうかね

メモリ上でフレームを低解像度化後にソースとの比較学習させた成果をnvidiaにタレ込むプログラムとか出してくれれば、いくらでも協力するのにな

今年から国内法的に研究用途や機械学習用途で作成する複製は、視聴可能な状態で保持しなければ著作権を問われなくなったから
パイプに対応してくれれば、放送波流し込んでやれば延々学習させてられるし
0879名無しさん@編集中 (ワッチョイWW c701-8Ko9)
垢版 |
2019/02/20(水) 15:10:59.69ID:QGJCA8EA0
>>877
なるほど
放送波を延々と機械学習か
間違いなく素材の質が問われるけど、BSだとTVショッピングにめっぽう強くなるとかw

CSならchの選び方で、ドラマ、映画、MV、スポーツ、アニメ、ニュースなど特化したものに育つかな?
成果をみてみたい気もする
0882名無しさん@編集中 (ワッチョイ 5f16-cT+3)
垢版 |
2019/02/20(水) 20:53:47.95ID:YN2x/+eh0
>>862
こういう意見もあるから
エミュの段階で拡大するのがベストっぽい

個人的な経験則でもドット絵は少しでもリサイズしようとすると
絵が崩れたりするからエミュで拡大して等倍(リサイズなし)エンコがいいと思う
0886名無しさん@編集中 (ワッチョイ 5f16-cT+3)
垢版 |
2019/02/20(水) 23:10:43.62ID:YN2x/+eh0
実装されてるんだ
すごいな

>>884
その記事での効果は凄いけど
そういう記事では最も優れた効果の画像を使うものだから
実際の利用ではちょっと違うものになるのはよくある
0897名無しさん@編集中 (ワッチョイ 7de7-dS/9)
垢版 |
2019/02/21(木) 23:19:22.51ID:+zuJcrqf0
 
2019/2/15
Unleash the Power of Turing with NVIDIA Driver 418
https://news.developer.nvidia.com/unleash-the-power-of-turing-with-nvidia-driver-418/
 →ドライバ418と、様々なTuring向けSDKについて。

記事を見て知ったけど、Optical Flow SDKというのも公開されてたようだ。
TuringはOptical Flow用の専用回路を持っていて、高速で高品質なモーションベクトルが得られるらしい。
オブジェクトの認識や追跡、フレーム補間とかに利用できるとか。

 NVIDIA Optical Flow SDK | NVIDIA Developer
 https://developer.nvidia.com/opticalflow-sdk

 An Introduction to the NVIDIA Optical Flow SDK | NVIDIA Developer Blog
 https://devblogs.nvidia.com/an-introduction-to-the-nvidia-optical-flow-sdk/

これを利用したFluidMotion的な機能とか実装されたりするのかな。
0900名無しさん@編集中 (ワッチョイ 7de7-dS/9)
垢版 |
2019/02/22(金) 03:33:34.35ID:Vo38WZn10
>>898
opticalって単語からレイトレを連想したのかもしれないけど、関係ないよ。

---
 オプティカルフロー - Wikipedia
 https://ja.wikipedia.org/wiki/%E3%82%AA%E3%83%97%E3%83%86%E3%82%A3%E3%82%AB%E3%83%AB%E3%83%95%E3%83%AD%E3%83%BC

 オプティカルフロー(英: optical flow)とは、視覚表現(通常、時間的に連続するデジタル画像)の中で
 物体の動きをベクトルで表したものである。
 オプティカルフローは、パターン認識、コンピュータビジョンあるいは他の画像処理技術において利用されている。
 その抽出にはブロックマッチング法、勾配法などが用いられる。
---
0903名無しさん@編集中 (ワッチョイ f174-rusg)
垢版 |
2019/02/22(金) 11:03:32.44ID:7vG+TaGe0
22日(金)23時に販売解禁を迎えるNVIDIAの新型GPU「GeForce GTX 1660 Ti」(GDDR6 6GB)搭載グラフィックスカード
予価は税込約36,000円〜約45,000円になる模様。

うーん、高い
1060の上だからしょーがないんだろうけど
0910名無しさん@編集中 (ワッチョイ 7935-XigO)
垢版 |
2019/02/23(土) 00:29:47.71ID:PETUn8Fp0
1660ti tensorなくてがっかりだな。
cpuエンコとpascalのnvencで遊んでるけど、今になって画面出力なしのRX470も気になってきたわ。

VCEってssimとかのグラフどこかにあげられてたっけ?むしろ悪すぎて退場食らったのかな・・・
レス数が900を超えています。1000を超えると表示できなくなるよ。

ニューススポーツなんでも実況