X



【統計分析】機械学習・データマイニング18
レス数が1000を超えています。これ以上書き込みはできません。
0001デフォルトの名無しさん (スッップ Sd3f-sT+G)
垢版 |
2017/10/12(木) 20:21:31.89ID:dbH/cWyid

機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ

※ワッチョイ

■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング17
http://mevius.5ch.net/test/read.cgi/tech/1502032926/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured
0907デフォルトの名無しさん (スププ Sd70-oixV)
垢版 |
2018/02/26(月) 07:17:19.11ID:7WwEQGrrd
>>906
何を学習させてるの?
0908デフォルトの名無しさん (アウアウウー Sa30-MRHR)
垢版 |
2018/02/26(月) 07:32:54.83ID:IuGyHUGLa
>>897
Juliaにしろ。
0918デフォルトの名無しさん (ワッチョイ 671e-POFq)
垢版 |
2018/02/27(火) 08:21:03.94ID:7rva7PWI0
kerasは抽象化進んでるからこまい部分いじろうとしたらtf
0921デフォルトの名無しさん (ワッチョイ 679f-lEE9)
垢版 |
2018/03/01(木) 10:34:42.63ID:bWNt6Hcx0
あるモデルの予測性能に低下が見られた場合
トレーニングに使ったデータが既に手元にない時は
何をもとにチューニングをすれば良いのでしょうか
0923デフォルトの名無しさん (ワッチョイ e71e-wl/W)
垢版 |
2018/03/01(木) 10:47:59.02ID:Ak0T+lzF0
解決しました。ありがとうございます。
0924デフォルトの名無しさん (アウアウイー Sadb-IhxS)
垢版 |
2018/03/01(木) 13:41:44.13ID:Bn8v5XdYa
>>921
トレーニングに使ったデータを用いた予測と
直近のデータに差が生じた。
=>トレーニングに使ったデータでは差が出る
=>直近のデータでチューニングする
じゃないの?
0927デフォルトの名無しさん (ワッチョイ dfb0-A4HH)
垢版 |
2018/03/01(木) 18:24:10.61ID:xzbWV/bR0
オンライン学習でいいんじゃないの
トレーニング用のデータはない、新しいデータもない場合は無理な話だけどバリデーション用のデータがあるから性能評価できてるんだろうし
0928デフォルトの名無しさん (ワッチョイ 67b3-5maD)
垢版 |
2018/03/01(木) 19:25:38.83ID:uaEM6B4d0
サポートベクター回帰について質問があるんだけど、
ここでいいの?
0929デフォルトの名無しさん (アウアウイー Sadb-IhxS)
垢版 |
2018/03/01(木) 21:46:38.46ID:AKu5M211a
>>927
新しいデータがないとすると
チューニングが必要かどうかも
分からないと思うんだけど
0930デフォルトの名無しさん (ワッチョイ 679f-lEE9)
垢版 |
2018/03/01(木) 22:57:30.16ID:bWNt6Hcx0
オンライン学習を使わない場合は
モデルを継続的にメンテナンスするのに
モデル作成時とそれ以降のトレーニングデータを
延々と保持し続ける必要があるということ?
実務ではどうやっているのだろう
0931デフォルトの名無しさん (アウアウイー Sadb-IhxS)
垢版 |
2018/03/02(金) 00:05:23.29ID:2VXIKrxEa
時系列的に変化してゆくものなら
初期モデルを保持する必要はないでしょう
初期状況がスタートになるデータと、
そうでないデータがあるなら
両者保持してそれぞれに適用する。
後者は動的に変化させてもいいし初期を引きずる
必要もない。

ま、置かれた状況に寄りということになるでしょうね。
0932デフォルトの名無しさん (アウアウイー Sadb-IhxS)
垢版 |
2018/03/02(金) 00:11:29.37ID:2VXIKrxEa
ロバスト性の維持を必要とするかしないか
今のAIはその辺りの思考は適当かもしれない
0933デフォルトの名無しさん (ワッチョイ 071e-wl/W)
垢版 |
2018/03/02(金) 01:49:20.06ID:ebZcAzDQ0
CNTKってどうなん?
0935デフォルトの名無しさん (ワッチョイ 679f-lEE9)
垢版 |
2018/03/02(金) 08:10:24.81ID:4WDSbwMd0
例えば手書き文字認識で最初に1万件のトレーニングデータで判別モデルを構築
その後新たに2万件のデータが入手できてそれをモデルに学習させるという場合
合わせて3万件のデータで適切なパラメータを探してテストしてモデルを構築することになるのかな

これはモデルを新しく構築するのと変わらないように思えるけど
つまり「学習≒モデルの新規作成」ということなのかな

これを続けるといずれはリソース不足になるけど
それを防ぐために最新の3万件を使ってモデルを構築するしくみにすると
切り捨てた古いデータから得られた知見はモデルに反映されないということになるのかな
0936デフォルトの名無しさん (ワッチョイ 67b3-5maD)
垢版 |
2018/03/02(金) 09:04:33.85ID:y8jT/VpV0
サポートベクター回帰のことで質問。
目的関数や判別関数のなかにΣ(a-a*)っていう項がある。
a*は何を指していて、どうやって計算すればいいのだろうか。
ひょっとして、回帰曲線より上にあるデータに関してはaを計算し、
下にあるのはa*を計算するっていう風にするのかな?
もしそうだとすると、学習中は回帰曲線が変化していくのに合わせて、
aかa*かを変えていくってことなのかな?

実際の数式は、例えば↓のP.11
ttp://datachemeng.com/wp-content/uploads/supportvectorregression.pdf
0937デフォルトの名無しさん (スップ Sd7f-mqjH)
垢版 |
2018/03/02(金) 09:11:06.56ID:1juFpgM6d
>>935
オンライン学習だね
ディープ系だとあとから追加された教師データの影響が限定的な気がする
あとから追加された教師データで別のモデル作って、旧モデルとのアンサンブルを蒸留したほうが実用的には良い気がする
0940デフォルトの名無しさん (ワッチョイ 071e-wl/W)
垢版 |
2018/03/02(金) 13:47:26.85ID:ebZcAzDQ0
いつのまにかkerasがCNTKに対応してたんだけど、やっぱりwindowsだとCNTKのほうが相性よかったりするんだろうか
0942デフォルトの名無しさん (ワッチョイ 478a-81ea)
垢版 |
2018/03/03(土) 01:23:22.40ID:QYvE6JE10
>>936
どや顔で答えるけど複素共役
重み係数に実数じゃなくて複素数使用することで重みの大きさだけじゃなくて、通信遅れみたいな取得波形のズレ具合みたいなものも相関取れる
0945デフォルトの名無しさん (ワッチョイ 67b3-5maD)
垢版 |
2018/03/03(土) 09:02:30.36ID:zx4Tcgpy0
>>944
重みというか、重みに関係するラグランジュ乗数だよ。
各学習データに乗数が2つあると考えるのかな?
あと、ついでに、この乗数を計算する更新式を知らないかな?
SVMの学習に使う更新式は見つかるんだけど、SVRの更新式が見つからない。
0946デフォルトの名無しさん (ワッチョイ 478a-81ea)
垢版 |
2018/03/03(土) 12:11:55.96ID:QYvE6JE10
これらは筆者独特の説明のためにαとα*に分けただけ
本来はα-α*=A、α+α*=A'とでもおけばよい
ついでに言うとどうでもいいことだがこれらは本来のラグランジュの未定乗数法の定数ではない
筆者は何か定義を間違えてるのでは?
0947デフォルトの名無しさん (ワッチョイ 478a-81ea)
垢版 |
2018/03/03(土) 12:18:15.24ID:QYvE6JE10
リンク先の資料ではなく
他の参考書なりネットで落ちてる他のものを見たほうがいいと思うけど。
基本的には重みを変化させて評価関数が小さくなるように重みを更新したらいいだけ。その方法は勾配法なり何でもよい
0949デフォルトの名無しさん (ワッチョイ 67b3-5maD)
垢版 |
2018/03/03(土) 12:58:57.79ID:zx4Tcgpy0
>>946
他の資料をいくつも見てるけど、数式は同じだよ。
だから、筆者独自の考えではないと思う。

>>947
評価関数を最小にするよう重みを求めるのは分かるんだけど、
そのための常套手段というか効率のいい手法があれば教えて欲しい。
ないのかな。

>>948
俺の頭が追いつかなくて、全然理解できない。
逆行列を計算することで、最適解が解析的に得られるってこと?
色んな資料を見てると、そうではないようなんだよ。
あるいは、数学的には可能なんだけど、計算量が膨大なのかもしれない。
0950デフォルトの名無しさん (ワッチョイ 478a-81ea)
垢版 |
2018/03/03(土) 13:18:42.05ID:QYvE6JE10
>>949
いやだからリンク先の資料は説明のための式変形だってば。意味を見いだすためだけの式展開。

方法は単純に中点法なりランダム法とかでよい。ただの凸関数だし。
適当に重みを2パターン用�モして2点の評価関数を計算。さらに重みをそれぞれの中点求めてその値での評価関数も計算。一番評価関数が小さいものを更新。それでいける。

そもそも評価関数が重み定数の二次形式になってるから、最適解は一つしかなく、評価関数を重みベクトルの行列で表すとry
0951デフォルトの名無しさん (アウアウエー Sa9f-wl/W)
垢版 |
2018/03/03(土) 13:25:34.13ID:Cp/R2Woua
>>950
そこまでわかってるやつなら機械学習しなくても
直接方程式解いて最適解求めるプログラム書いた方が早くね
0954デフォルトの名無しさん (ワッチョイ 67b3-5maD)
垢版 |
2018/03/03(土) 14:07:43.34ID:zx4Tcgpy0
>>952
逆行列を求めるっていうのは、↓の式(7)を求めることに相当する?
ttp://cl-www.msi.co.jp/reports/svm.pdf
0957デフォルトの名無しさん (ワッチョイ 67b3-5maD)
垢版 |
2018/03/03(土) 15:31:05.81ID:zx4Tcgpy0
>>955
じゃあ、>>954の方針でやってみるよ。
いろいろありがとう。
0959デフォルトの名無しさん (アウアウイー Sadb-IhxS)
垢版 |
2018/03/03(土) 21:51:51.31ID:iqY33+Pma
>>954
なつかしいサイトや
0962デフォルトの名無しさん (ワッチョイ 071e-wl/W)
垢版 |
2018/03/06(火) 03:50:25.33ID:sizHzr450
ちげえよ。
ニューラルネットの性能のほうが圧倒的になった今、もはや過去の産物が必要とされないから
0965デフォルトの名無しさん (スッップ Sdff-81ea)
垢版 |
2018/03/06(火) 08:54:58.40ID:UO7IaHCDd
ディープラーニングにもカーネル法は当然応用できるが、単純にただ併用するだけでは意味がない。
恐らくもうすでに誰かがやってると思われるが、その結果だけでカーネル法ダメダメと決めつけるのは勿体ない。
もう一工夫取り入れると‥‥
0967デフォルトの名無しさん (ワッチョイ e733-i/dJ)
垢版 |
2018/03/06(火) 10:13:56.02ID:VVMRPFAR0
理論的、究極的にはにはそういう前処理すら必要ないのがニューラルネットだけどね
その操作が本当に判別に有効ならそういう処理を行う層が学習されるだけだし
0971デフォルトの名無しさん (アウアウイー Sadb-IhxS)
垢版 |
2018/03/06(火) 11:44:24.56ID:1xSMtB3+a
>>968
昔も今も変わらない。
>>967の方が、なにか大きな勘違いをされているだけ
0984デフォルトの名無しさん (アウアウイー Sadb-IhxS)
垢版 |
2018/03/07(水) 08:19:35.33ID:Bp6mjckSa
>>977
適切にデータが用意されていれば(前処理されていれば)
という条件の元
0988デフォルトの名無しさん (ワッチョイ becc-noit)
垢版 |
2018/03/08(木) 12:13:52.00ID:dUoqmsXJ0
今更ながらランダムフォレストを勉強中なのですが、木の深さと木の数はどのくらいの値にすれば良いのでしょうか?
また、木の数を増やしていくのと、木の深さを上げていくのではどっちがオススメですか?数十万個のデータから決定木を生成したいのですが
0989デフォルトの名無しさん (ガックシ 06e6-uQtz)
垢版 |
2018/03/09(金) 13:37:49.59ID:t4MW7zf06
>>988
分類か回帰かで違うみたいだけど、普通分類なら深さは制限しない。
木の数を増やしていくと汎化性能は上がるけど、その分計算時間がかかるようになるので
OOBエラーなんかを見ながら木の数を決定するのが一般的かなぁ。
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 148日 2時間 21分 7秒
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況