サウンドプログラミング6 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
落ちていたので立てました。
テンプレ等はお願いします。 用語を統一するために
リアルタイム
バッチ処理の対語で、ゼロレイテンシの事ではない。
遅延はあっても途切れずに処理する事をいう
レイテンシ
ADCからDACまでにかかる時間の事だったり
DSPの掛け算なんかで命令から実際に答えが出るまでの命令サイクル数の事だったり
DSP
デジタル・シグナル・プロセッサ の場合は信号処理用のMPUの事
デジタル信号処理の事を言う場合もある SONYのACID MUSIC STUDIOとかいうやつのテンポを変えても音の高さが変わらないのはすごいと思う
ループサウンドを組み合わせるだけで作曲できるソフトなんだが、テンポを変えてもループサウンドの音の高さが変わらない
ループサウンドの本体はただのWAVEファイルっぽい
普通はテンポ変えたら、早送りとかスローみたい音の高さが変わるけど、これは変わらない
しかもアナログに近いレベルに細かくテンポを変えられる
一体どういう処理してるんだろうな 周波数を増やせばいいだけだろ。
引き伸ばすのではなくバッファだけ増やして
増やした分だけ元のバッファからコピペすればいい。 サウンドプログラミングて良くわからんね
検索しづらいし、音声処理じゃダメなの?それとも別物? ノイズ除去ってどうやるの?
MCI使ってWAVEとして録音したデータからノイズを除去したい >>9
サーーーーーーって音
>>10
フーリエ変換か・・・
大学の講義でちょろっと習っただけだがやってみるか
ありがと >>5-6
例えば、4Hzなら、1秒間に波形、abcd と鳴るとき、
テンポを半分にすると、2秒間で、aabb, ccdd と、
1オクターブ低く聞こえる(2Hz)
これを2秒間で、abcd, abcd とすれば、
長さが倍になっても、4Hzのまま
>>8
audacity を使えば? 例えばabcdが「ド」の音だとすると、abcd abcdにしたら「ドド」と2回聞こえるだろ
それにテンポをそんなにキリのいい数字で変えることなんてないだろ
ハゲ >>5
VLCも確かそんな感じ
オープンソースだった気がするけど ( ´・ω) (´・ω・) (╯•﹏•╰) (・ω・`) (ω・` ) >>12
も
>>13
もFFTの利用法を全く理解してないwww >>12も>>13もFFTじゃなくてTD-PSOLAの話なんじゃないの? シグナルを周波数成分ごとに分解したい時は通常FFTを用いると思いますが
既成のソフトでは周波数分解能と時間分解能はトレードオフにある物が大半です
周波数分解能も時間分解能も欲しい場合に使えそうなアルゴリズムもしくは
そのような機能を持ったライブラリ的な物はあるのでしょうか?
たとえばレベルの低い「プチッ」みたいなノイズを既成のソフトのFFT機能で
見つけようとしても困難なのでそういうツールを作れないかなと・・・ >>20
周波数分解能と時間分解能は原理的に表裏一体じゃないの >>20
ウェーブレット変換は試してみた?
あまり経験はないので突っ込んだことは言えないけど リアルタイムで録音しつつノイズ除去するとやっぱ重い?
パソコンのスペックや録音する周波数、ノイズ除去のやり方によるとかそういう揚げ足取りレスはいらないよ。 アプリをクロスプラットフォームにするために
OpenALでプログラミングしてるが
仕様がよく分からない部分があって苦戦
どうやら使用中のバッファは削除できない仕様のようだ エイリアスノイズってオーバーサンプリングしてLPF掛けるしかない?
それとも保管してからLPFかけても出来るの? ノイズの周波数が必要な周波数より低ければ取れると思うけど。
「エイリアスノイズ」の意味を取り違っているなんて事はないですよね。 てか>>26が何を言ってるのか分からないから誰もまともに返答できない
既にエイリアスノイズが乗ってる信号をどうにかしたいという話なら
ノイズが必要な帯域外にあることが分かってるならLPFやHPFやBPFでなんとか出来るかもしれないけど ものすごく初歩的で原始的な質問ですが、
2つのPCMデータ(A,B)をミックスして1つのPCMデータ(C)にするとき
上限下限を超えないように処理するには、平均を取ればいいのですか?
それだと、PCMデータ(C)を鳴らしたときに聞こえるPCMデータ(A)の音は
PCMデータ(A)を単体で鳴らしたときの半分の音量になってしまわないでしょうか?
PCMデータ(B)が仮にほぼ無音に近いものだったとしたら、ミックスすることで音量が半分になるのはおかしくないでしょうか? >>30
レスありがとうございます
実際のところ、一音毎にサンプリングされたピアノの音(88個)をシーケンス情報を元にミックスしてPCMデータ化したいと思っています。
一音一音の振幅の最大は70%くらいなので、数音混ぜるだけでかなり頻繁に飽和が発生し、時には100%張り付きの状態が発生し、とても聴くに堪えない音になりそうです。
二つあるいは複数の音を混ぜるという単純な処理でも、コンプレッションの概念が必要になってくるものなのでしょうか?
または、サンプリングの時点でレベルをかなり抑え目にしておいて、上限を超える頻度が常識的な演奏であれば少なくなるようにバランスを取ることで妥協するのでしょうか?
もっと何か根本的に間違っているのでしょうか? ■ このスレッドは過去ログ倉庫に格納されています