【NVENC/VCE】ハードウェアエンコーダーを語るスレ【QSV】
レス数が900を超えています。1000を超えると表示できなくなるよ。
>>811
TU117=GTX1650除外だから、
hevc 目当てなら1660買っとけってことか >>810がちょっと誤解を生む表現だったので補足。
B-FRAMES AS REFERENCE自体はSDK8でサポートされてた機能で
H.264限定で、NV_ENC_BFRAME_REF_MODE_MIDDLEというモードだけ指定できた。
NVEncCなら --bref-mode middle。
HEVCではBフレームがサポートされてなかったので、当然B-FRAMES AS REFERENCEも使えなかったし、
SDK8ではそれに関する設定をすることもできなかった。
SDK9でHEVCでもB-FRAMES AS REFERENCEの設定ができるようになり、
更にNV_ENC_BFRAME_REF_MODE_MIDDLEだけでなく、NV_ENC_BFRAME_REF_MODE_EACHも指定できることになった。
NVEncCがSDK9に対応すれば、--bref-mode each/middle がHEVCで使えるようになって、
それを使えばTuringのHEVCエンコード品質が多分更に上がるものと思われる。
という流れです。 >>813 報告乙です。なかなかSDKまで見ないもんなぁ
rigaya氏に生暖かい毒電波送ることにする!w --ref とは別のですか?
それならオプション指定して変化はあったみたいですが、私は詳しくはないです >>816
ありがとうございます
いま大量エンコードでTSファイル保存勢を辞めている所ですがもう少し待ったほうが良かったか、、現状で満足はしていますが残念っ まさかの1660待望説到来なのか?
でも1660はメモリーが6GBまでかと思われるが、4Kとかをエンコードしたりデコードしたりした場合に何か影響が出たりしないのかな? >>792
ハードウェアエンコのH.265とH.264は正直五十歩百歩 gtx1050で地デジtsを480x270pでエンコードをするとどの程度fps出ますか?
よろしくお願い致します。 NVEnc 4.31
[共通]
・NVENC SDK 9.0に更新。NVIDIA グラフィックドライバ 418.81以降が必要。
・HEVCエンコ時のB ref modeの設定を追加。(--bref-mode middle/each)
[NVEnc.auo]
・設定画面に「品質(--preset)」「Bフレーム参照モード(--bref-mode)」を追加。
[NVEncC]
・--presetをreadmeに追加。
速いもうできたのか的な。 更新乙です。
なんだかんだとrigaya氏にはお世話になりっぱなしです。 --bref-mode each を使ってみたら固定品質のファイルサイズが8%減りました
やったぜ、ありがとん >>818
影響無いはず
1050無印の2GBで4K扱っても余るぐらいだしな
ゲーム用途が無いのなら、1660で3GB版(が出るなら)爆速エンコ需要には好適なんじゃないかと >>828
やはり動画の再生やエンコード用途ならばGPUのメモリーは、そんなにたくさん詰む必要はないわけだね
ちなみにGTX1660の世代がエンコードユーザーにとってはRTX世代より有利なのは間違いないのかな? >>829
現物出回ってないのに「間違いは無い」って誰が判断できると思う? >>830
http://2sen.dip.jp/cgi-bin/upgun/up2/source/up3524.jpg
この表にTU117とわざわざ細かく指定しているのがどうも胡散臭い気がしなくもない
そもそもこの表、右側2列にそれぞれTU117の文言が入っている時点で情報としての信用力が低い気がしなくもないし >>832
!!
よくよく調べると、
■TU117(つまりGTX1650)
・HEVCのBフレーム非対応
・インターレース信号をインターレースのままエンコード対応
のPascal世代相当
■TU116(つまりGTX1660Ti及びGTX1660)
・HEVCのBフレーム対応
・インターレース信号のままでのエンコードは非対応
のTuring世代
で、エンコードやデコードに関しては、特段TU116だけ何かが特別良くなるわけではなく、あくまで他のTuring世代と同等
ということで良いのかな? 現状の予想としてはね。発売前のうわさを信じて動いても文句は言わないように。
普通の人は発売後の書き込み待ってからでいいと思う。 業務用のエンコーダを買えば完璧。2桁値段が高いけどね。 2060買おうか迷っていたが1660でもいいかもしれん 業務用のは大抵がDSPボード積んだXeonベースのLinuxだしなぁ >>833
買うなら最低でも1660って事か
補助電源いるんだよなあ A's VIDEO Converterなんだけど、cpuのコア数だったか同時エンコ可能数を設定するのはどこにあるの?? >>841
開始ボタンの右側にある"v"をクリックすると出てくる >>842
ありがとう!まさかこんな所にあるとは気づかなかった!!
あと、もう少し教えてほしいんだけど、QSVの場合は「ハードウェアデコード」のチェックはオン?それともオフ?
ググってみると両方あるし、そもそもエンコードしてるのにデコードの設定があるのもよくわからず困ってる。 >>843
ソースはデコードしなきゃエンコード出来ないだよ
CPUデコ→HWエンコは速いが極限までCPU使いたくないならHWデコ&HWエンコだ 1660は本当にエンコユーザー御用達になりそう
噂ではTensor Coreも載るみたいだし
将来的にTensor Core対応のwaifu2xみたいな超解像やノイズ処理のソフトが出ててきも使えるかも知れないし >>844
はーそういうことなのか。恥ずかしながら、なんでデコードの選択肢があるのか謎だったわ。
無知な俺が成長したわ。横からだがサンクス 知ってて当たり前の事だったらごめんなさい
TuringでHEVCのBフレーム対応ができるようになるようだけど
Pascal以前のGPUを使った時Bフレーム対応の部分だけCPUに計算
させる事はできるのかしら? できるなら、すでに出てると思いまする
そもそもその世代はNVENCにBフレエンコ処理する機構がないかと… できるかどうかはNVENCの仕様次第
仮に可能でもやる気とか優先度とかによって実装されないかもしれない でもbフレームのためにcpu使う実装したら、x264に勝てる点が何一つ残らない程遅くなったりしそう・・・ A's VIDEO Converterもsdk9.0対応しねーかな たぶん>>850の言うとおり、実用的な速度が出るとはおもえない >>851
A'sはSDKを使って開発してるわけじゃなく、MediaFoundationのエンコーダを呼び出してるだけじゃなかったっけ? 速さ的にもデコードもエンコードもHWでやった方が速いんだけども
デコードされたデータをGPUに受け渡すよりデコードされていないデータ渡す方が接続バス通すデータ量小さいし、CPUの処理を待つ事自体がボトルネックなる
要は「丸投げ」が一番速くて電気も食わないのよ
CPUとHWのやりとりする量を手数を最小限にするすれば、バスを通してのデータのやりとりする量も、処理待ちや伝達待ちも発生しないのだから、電気も食わないし処理も速い
Bフレームの処理だけCPUってのも、それが出来たとしてもHWで中途まで処理した内容(生のフレーム情報だから無圧縮で肥大化している)をバス通してCPUに戻して、CPUで処理した内容をまたバスを通して戻すという手間が増えまくるうえ
HWはCPUの処理を待つ間処理が止まるし、I/P/Bフレームの比率考えればBフレームが多いほどCPU処理比率上がってHWエンコードの意味が無くなっていって、品質も速度も極めて半端にしかならんのよ ffmpeg+QSVでH.264とHEVC両方使ってみたけど
意外とCPU負荷もあるんだな
GPUに全部お任せできるくらいに思ってたわ H.265エンコだとどのハードとどのソフトの組み合わせがいいの? >>855
ソフトウェアデコードしてるせいでデコード負荷がかかってるってことはない?
ソースにもよるけど、-i の前に -hwaccel qsv -c:v h264_qsv とかつけてる?
Hardware/QuickSync ? FFmpeg
https://trac.ffmpeg.org/wiki/Hardware/QuickSync レトロゲー(640x480)の実況動画をつべにアップしようと思うんだけど
せっかくつべがFullHDや4kアップに対応してるんだから低解像度のレトロゲー実況動画も
FullHDか4kくらいにアップスケールしてからアップロードしてみたい
ハードウェアの力を使って低解像度動画を高解像度動画に綺麗にアップスケールしてくれる技術って無い?
ちなみにグラボはAMDのR9 290 >>859
おそらくあなたの想像や、このスレの趣旨とはズレるが教えてあげよう。
480pソースでもGV-USBのようなSDキャプチャではなく
初めからから720pまたは1080pにアプコンして収録するのが一番綺麗になるよ
レトロゲーム機
↓
フレームマイスター
https://www.amazon.co.jp/dp/B00FC38XDQ/
↓
HDMIキャプチャ >>859
レトロゲーならいっそのこと Nearest Neighbor で拡大するとか。
waifu2x系は
https://github.com/YSRKEN/aviutl-waifu2x-w2xc
とかならOpenCLの利用も可能らしいから一応AMD GPUを使うと言えるかな。
自分で使ったことは無いし、レトロゲーの拡大に向いてるかどうかは知らない。
ちなみにNVIDIAのRTXシリーズなら、NGX SDKが公開されればDLVSR(Deep Learning Video Super Resolution)ってのが
使えるようになるらしい。まだアーリーアクセスの段階だから無理だけど。
まあこれもレトロゲーの拡大に向いてるかどうかはわからないけど。
https://developer.nvidia.com/rtx/ngx
https://docs.nvidia.com/rtx/ngx/programming-guide/index.html#dlvsr >>860
エミュレーター使ってるから直接画面キャプチャしちゃってるのよね(小さな声
>>861
waifu2って始めて聞いたからググってみたけど
アニメ調の画像を高品質に拡大できるツール。与えられた画像を“縮小されたもの”と解釈し、
その元の姿を機械学習を利用した人工知能で推測、復元する仕組み。
https://forest.watch.impress.co.jp/library/software/waifu2xcaffe/
ほえー、こんなもの出来てたんだ
機械学習でスケールアップする、それもGPUを使って高速に
面白そうなのね >>862
一応書いては見たものの、waifu2xは動画に適用すると死ぬほど時間がかかると聞くので、
多分実況動画のために使う気にはなれないと思ふ・・・。 AMD VCEってNvencみたいに同時エンコード制限(上限?)的なのってあるの?
Nvencのチップ別仕様表はあるんだけど、VCEの仕様表は見つけられなくて
誰か知ってたら教えて欲しい。
できればPolarisアーキとVegaアーキ 25分程度のDVDアニメを全コマ画像化してwaifu2x-caffeでgtx1080ti使って拡大してから再度動画にしたら2日がかりだったぞ
そんなことしなくてもエミュ自体に大抵は拡大処理機能が付いてるだろうから画面を拡大した状態でキャプチャしたほうが綺麗だよ
あたりまえだけど違法ダウンロードしたソフトで遊んでる証拠動画はアップしないようにね >>865
エミュのことはよく知らんけど、そんなに複雑な拡大アルゴリズムを実装してるとも思えないし、
だとしたら元解像度でキャプチャしたものをLanczosなりなんなりで拡大したほうが綺麗になるのでは? >>857
はえ^〜サンガツ
デコードのほうもQSV指定する必要があったんすね
>>859
エミュレーターに描画の時点で内部解像度を変更できる設定があるから「機種名 高画質化」でぐぐると幸せになれるゾ >>866
そう、時間かけてソフトでアップスケールする方が、きれいになると思う >>866
そもそも前提となる条件があやふやなのに断定するような書き方するのは良くなかったね、すまない
元動画を何かしら圧縮して保存していたら拡大したときにノイズが目立ちやすいから
元からFHDなりでキャプチャしたほうがいいと考えたんだ
エミュの拡大アルゴリズムまで考えが至らなくて恥ずかしいよ >>862
そうか。
他の人にも言われてるけど、エミュをフルスクリーン表示にして、それをそのままフルスクリーンキャプチャするのが一番楽に高解像度ソース作れるんじゃないか
片方全画面ゲーム、片方PC画面にできるデュアルディスプレイ環境にすると尚良し >>869
たしかに、元の動画を非圧縮AVIで保存してるか、h.264などに圧縮してるかで変わりますね >>594
> 単価の安い20nmあたりでNVEncボードとか
> エンコードならDDR4でも間に合うし、
いいね! 素晴らしいアイデア。
ぜひ”NEW Product Requirement”として
nVidia にメールしてください! SpursEngineとかあったけど
もうああいうのは出ないやろ 専用ボード出したところで月何枚売れるのか
天下のNVIDIAにとっては糞みたいな売り上げでしょ あれは余剰チップの消化先的な面もあったからなぁ
リリース時の単価も安くないし >>875
あれはCUDAと比べりゃマシ程度のもんだった
それよりQuadroでNVENC使えばエンコ本数も制限無くて良い Tensorコア使った超解像フィルタどうなったんだろうかね
メモリ上でフレームを低解像度化後にソースとの比較学習させた成果をnvidiaにタレ込むプログラムとか出してくれれば、いくらでも協力するのにな
今年から国内法的に研究用途や機械学習用途で作成する複製は、視聴可能な状態で保持しなければ著作権を問われなくなったから
パイプに対応してくれれば、放送波流し込んでやれば延々学習させてられるし >>877
なるほど
放送波を延々と機械学習か
間違いなく素材の質が問われるけど、BSだとTVショッピングにめっぽう強くなるとかw
CSならchの選び方で、ドラマ、映画、MV、スポーツ、アニメ、ニュースなど特化したものに育つかな?
成果をみてみたい気もする >>863
そっか、もともと静止画用の技術なのか
ハードウェアの力を借りても動画を拡大するのは大変と・・・ あれ昔のアニメに使ってみるとデジタルリマスターみたいになるからすごい >>862
こういう意見もあるから
エミュの段階で拡大するのがベストっぽい
個人的な経験則でもドット絵は少しでもリサイズしようとすると
絵が崩れたりするからエミュで拡大して等倍(リサイズなし)エンコがいいと思う >>883
これ(xBR)の動画版って無いのかな?
綺麗にドット絵拡大していて驚愕 >>884
そういう場合はffmpegやAvisynth回りを探すといい。
FFmpeg Filters Documentation
https://ffmpeg.org/ffmpeg-filters.html#xbr
mysteryx93/AviSynthShader: Run HLSL Shaders in AviSynth with GPU Acceleration
https://github.com/mysteryx93/AviSynthShader 実装されてるんだ
すごいな
>>884
その記事での効果は凄いけど
そういう記事では最も優れた効果の画像を使うものだから
実際の利用ではちょっと違うものになるのはよくある RTX20x0世代のnvencでドライバ&ソフト側の最適化が完了したら
10x0世代より30%以上速くなるってどっかで見たけど
全然、来ないな… 1440x1080でいろいろ盛って360fpsくらいだけどまだパワーアップするのか…
古いHDDだと読み込み間に合わない このままGPUの性能が上がっていったらリアルタイムにwaifu2xでアプコン再生する動画姿勢支援機能とか出そう >>885
> FFmpeg Filters Documentation
> https://ffmpeg.org/ffmpeg-filters.html#xbr
イイネこれ
QSVなりVCEなりハードウェア使ってくれればなおのこと(・∀・)イイ!! SDKのページからリンクされてたけど、NVIDIA公式ブログでH.264とlibx264の比較記事が出てた。
Turing H.264 Video Encoding Speed and Quality | NVIDIA Developer Blog
https://devblogs.nvidia.com/turing-h264-video-encoding-speed-and-quality/ >>891訂正
× H.264とlibx264の比較記事が出てた。
〇 TuringのNVENC H.264とlibx264の比較記事が出てた。 >>891
これ、同じ条件での比較って言えるのか? amatsukazeとNVENCのおかげで溜まってた録画データだいぶ軽くなったわ。
作者さんありがとう。 ラデ570と580だとそんな差でない?メモリも4GBでいい?
2019/2/15
Unleash the Power of Turing with NVIDIA Driver 418
https://news.developer.nvidia.com/unleash-the-power-of-turing-with-nvidia-driver-418/
→ドライバ418と、様々なTuring向けSDKについて。
記事を見て知ったけど、Optical Flow SDKというのも公開されてたようだ。
TuringはOptical Flow用の専用回路を持っていて、高速で高品質なモーションベクトルが得られるらしい。
オブジェクトの認識や追跡、フレーム補間とかに利用できるとか。
NVIDIA Optical Flow SDK | NVIDIA Developer
https://developer.nvidia.com/opticalflow-sdk
An Introduction to the NVIDIA Optical Flow SDK | NVIDIA Developer Blog
https://devblogs.nvidia.com/an-introduction-to-the-nvidia-optical-flow-sdk/
これを利用したFluidMotion的な機能とか実装されたりするのかな。 レイトレ関連の機能の一部だろうから一概にTuringの機能と言っては弊害あるのでは? >>898
opticalって単語からレイトレを連想したのかもしれないけど、関係ないよ。
---
オプティカルフロー - Wikipedia
https://ja.wikipedia.org/wiki/%E3%82%AA%E3%83%97%E3%83%86%E3%82%A3%E3%82%AB%E3%83%AB%E3%83%95%E3%83%AD%E3%83%BC
オプティカルフロー(英: optical flow)とは、視覚表現(通常、時間的に連続するデジタル画像)の中で
物体の動きをベクトルで表したものである。
オプティカルフローは、パターン認識、コンピュータビジョンあるいは他の画像処理技術において利用されている。
その抽出にはブロックマッチング法、勾配法などが用いられる。
--- いろんな新技術来ても非エンジニアの自分は指をくわえて待つしかねぇ! リアルタイムは無理でもっぱら静止画だったな
FPUなしで一枚出すだけで一週間とか
今思えばそんなんよくやってたなと思うわw 22日(金)23時に販売解禁を迎えるNVIDIAの新型GPU「GeForce GTX 1660 Ti」(GDDR6 6GB)搭載グラフィックスカード
予価は税込約36,000円〜約45,000円になる模様。
うーん、高い
1060の上だからしょーがないんだろうけど メモリ3Gのとtiじゃないやつがいくらになるか…
ご祝儀価格やめて 経済を回すために皆頑張ってくれ
俺は中古の1060-6G使いながら値下がりを待つから 1660無印がnvencでBフレ対応の最廉価なんだろうからそれを待つわ RTコアがないのはいいけどTensorコアもないのか 1660ti tensorなくてがっかりだな。
cpuエンコとpascalのnvencで遊んでるけど、今になって画面出力なしのRX470も気になってきたわ。
VCEってssimとかのグラフどこかにあげられてたっけ?むしろ悪すぎて退場食らったのかな・・・ レス数が900を超えています。1000を超えると表示できなくなるよ。