【統計分析】機械学習・データマイニング22

■ このスレッドは過去ログ倉庫に格納されています
2019/01/13(日) 09:13:37.19ID:lpjZ4t830

機械学習とデータマイニングについて語れ若人


■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング21
https://mevius.5ch.net/test/read.cgi/tech/1541309676/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured
2019/01/29(火) 01:58:12.10ID:mNbYmuatM
https://github.com/utkuozbulak/pytorch-cnn-visualizations
こんなのがあったので使ってみようと思って

pretrained_model = models.vgg16(pretrained=True).features
のモデルの代わりに自分で学習させたモデルを使おうとして


pretrained_model = Net()
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(pretrained_model.parameters(), lr=0.01, momentum=0.3)
pretrained_model.load_state_dict(torch.load(PATH))
でモデルを読み込もうとしたのですが、
TypeError: 'Net' object does not support indexing.
というエラーが出ます
どなたか分かりませんかね?
2019/01/29(火) 06:58:03.49ID:AnpnZGSz0
「python typeerror 'net' object does not support indexing」で検索!
355デフォルトの名無しさん (アウアウイー Sab1-mK6X)
垢版 |
2019/01/29(火) 08:13:22.16ID:jfgchlHqa
>>352
現在のAIの世界は大雑把に、作る人とヘビーユーザー、一般ユーザーの
垣根でいえば、作る人と一般ユーザはわかれているが、作る人とヘビーユーザーの
垣根ができていない。要はヘビーユーザー向けのちゃんとしたツールが存在して
いない。
だから言語の話に終始してしまう。

遠からず、この辺りは分かれてくることになると思う。
その時、作る人(これもレベル複数あるが)はPythonなどいろいろ使われるだろう。
ヘビーユーザーは、もっと目的志向のツールを使うことになるだろう。それがPythonで出来ているかもしれないが、実際は裏は関係ない。

今は利用環境という面では、発展途上というより、まだ始まったばかりで、
その面でまともなツールは、非常に少ない(あるいは無い)と言ってもいい状況が
今日現在。
2019/01/29(火) 13:28:27.93ID:97jY20NI0
AVから全裸画像抜き出そうと思ったら気が狂いそうなぐらいめんどくさい
棒立ちかそれに類する画像が大量にあるサイトってないかな・・・
もう後ろ向き画像やおっさんのケツ画像をひたすら削除する作業に疲れた・・・しにたい・・・
2019/01/29(火) 13:29:17.61ID:97jY20NI0
GUIで学習させるツールがちらほらあるけど、まだ実用には程遠いよね
2019/01/29(火) 13:35:59.92ID:vjXCpBua0
昔からぼちぼち出てるけどまったく流行らん
2019/01/29(火) 13:44:00.12ID:qfbmFsib0
次のAIブームに期待しましょう
2019/01/29(火) 14:19:41.32ID:+ftC4go90
理論知ってるよりデータの集め方の上手い人のが活用してる印象。
クローラで上手いこと画像集めてくるのに慣れてる人だったり。
2019/01/29(火) 14:21:18.93ID:3z5TaQ6EM
皆dmm好きだな
2019/01/29(火) 14:24:12.40ID:97jY20NI0
>>360
無料のデータセットとか色々あるしね
エロは以外とむずかすぃ・・・
2019/01/29(火) 15:07:54.30ID:qfbmFsib0
>>361
名前が変わったよ
364デフォルトの名無しさん (ワッチョイ 41ad-L3L3)
垢版 |
2019/01/29(火) 20:20:53.46ID:uLltl72Q0
>>359
> 次のAIブームに期待しましょう

次のAIブームは100年後ですよ?
つまり脳の構造が全てわかったときです。
2019/01/29(火) 20:30:50.97ID:MxYhDACE0
初心者で素朴な疑問なのですがsvmでrbfカーネルより線形カーネルの方が性能いいっていうパターンはありますか?
2019/01/29(火) 20:45:51.93ID:EFfzDMStp
>>365
性能がいい=事象を正しく説明する
という意味なら線形な事象は線形カーネルのがいい

性能がいい=誤差が小さい
という意味なら残念ながらない
2019/01/29(火) 21:10:12.31ID:EFfzDMStp
別の言い方で書くかな

性能がいい=予測誤差が小さい
なら、線形な現象は線形カーネルのがいい場合もある

性能がいい=フィッティング誤差が小さい
なら、残念ながらない

RBFカーネルは柔らかいのでカーブフィッティングしやすい
2019/01/29(火) 21:33:30.39ID:klbFR8200
>>356
BBSpinkの「正面全裸写真」スレ
2019/01/29(火) 22:26:02.72ID:97jY20NI0
>>368
神!グロ画像いっぱいと思ったら>>48が至高だったわありがとう!
370デフォルトの名無しさん (アウアウエー Sa4a-L3L3)
垢版 |
2019/01/29(火) 22:35:22.97ID:m5opkzxpa
戦後最長の経済回復ωωω
371デフォルトの名無しさん (アウアウエー Sa4a-ltHF)
垢版 |
2019/01/29(火) 23:13:49.13ID:inTv54/ka
>>365
線形カーネルだと線形判別しか出来ないのでは
2019/01/30(水) 00:16:44.87ID:nMbkMi1S0
タスクマネージャーのcompure_1ってなんでしょうか?
https://i.imgur.com/QNnDZS4.png
2019/01/30(水) 17:57:23.54ID:gOlK0hP00
>>367
例えば回帰問題であれば訓練データに一致させるようなフィッティングはrbfカーネルが絶対に勝つ。けど
分類問題で線形な問題ならaccuracyが線形カーネルの場合の方がいいということもあるということですか?
2019/01/30(水) 20:43:28.89ID:AMhQjvKip
>>373
回帰問題であっても分類問題であっても、訓練はRBFカーネルがaccuracyは高い
けれどもそれをテストデータに適用しても、RBFが勝つとは限らない
2019/01/31(木) 08:45:36.99ID:j1saZfoH0
単に、背景にある関数が線形に近いなら線形カーネルの方が成績が良くなるってことだよな
無駄にカーネルの表現力が高いとノイズに影響されやすくなる

関係ないが、多項式カーネルは次元を高くするほどフィッティングの成績は良くなると思ってたんだが
高くしすぎると悪化することもあるのを見て驚いた
サポートベクトルや素性の数に比べて次元を高くしすぎると逆に制約になるってことかね
376デフォルトの名無しさん (アウアウエー Sa7f-eDu2)
垢版 |
2019/01/31(木) 10:56:31.70ID:/c3SvgTga
制約というよりオーバーフィッティングでは
2019/01/31(木) 11:01:19.54ID:pd4BsQTXd
フィッティングの成績だから学習時の話だと思うが
2019/01/31(木) 12:26:27.71ID:S6N+PD6ia
フィッティングの成績が各点の二乗誤差の和とかなら多項式だと次数上げれば上げるほど誤差は減って、
データ点数以上の次数なら全ての点を通る曲線が作れるから誤差はゼロになるんじゃないか?
2019/01/31(木) 14:12:11.17ID:Bzc7eYfkd
SVMはサポートベクターとの内積(=カーネル)をとってその一次合成でスコア出してるのは知ってる?
多項式で項数が増えてもそれぞれに自由に係数を指定できるわけではないから、
サポートベクターが都合の悪い配置だと次数の多さが制約になることはあるかも
2019/01/31(木) 14:12:40.10ID:0ecmyy2fa
話変わるんだけど
例えば5次元のデータでsvm学習しました。accuracy、A%でした。
そのデータのうちの3変数使って3次元のデータを作ってsvm学習しました。accuracy、B%でした。
AよりBの方が高くなっちゃうってケースが起きてるのですが、たぶんAとBは同じくらいになるのがsvmの性質上普通になると思うのですがなぜなのですかね。
2019/01/31(木) 14:23:54.00ID:Bzc7eYfkd
ソフトマージンSVMは境界面近くのうまく分類できないサンプルを無視する
その数がそのまま学習データでaccuracy測ったときの残差となる
たぶん3次元で見たときの方が境界面近くのノイズが多かったんだろう
2019/01/31(木) 14:57:55.14ID:yUcU76L10
>>381
すあません、もう少しわかりやすくお願いします
不勉強で申し訳ないのですが
2019/01/31(木) 15:09:15.35ID:Bzc7eYfkd
>>381 は想像なんであってるかわからんがw

SVMはなるべく二つのクラスの距離(マージン)を広く取れるような境界を選ぶ性質がある
ソフトSVMは多少誤差があってもマージンを広く取る方を優先する
5次元の場合、SVMは誤差が大きい代わりにマージンが広い境界を見つけることができたのではないかということ
5次元モデルの方が汎化性能は高いかもよ
誤差とマージンのバランスはパラメータCで調整できる
2019/01/31(木) 17:39:00.02ID:yUcU76L10
>>383
訓練精度も汎化性能もどっちも3次元の方が良かったんですよね…
2019/01/31(木) 17:50:37.95ID:m2hyZCA/d
まあマージンが広くても上手く行くとは限らないしね
Cを大きくしてみ、100倍とか
5次元の方が3次元より学習時の誤差は小さくなるはず

なんにせよ結果を信じるなら残りの2次元が余計だったって話になると思う
386デフォルトの名無しさん (ワッチョイ dfb3-Q9zh)
垢版 |
2019/01/31(木) 17:54:19.80ID:P0SGHmWv0
実はデータ数が多過ぎて学習回数が全然違うとか
2019/02/01(金) 00:31:59.27ID:4ECfKB/20
β
2019/02/01(金) 01:01:45.93ID:gQj2ZZAq0
>>375-379
曖昧ですまん。そう、SVMで学習に使ったデータをそのまま分類したときの精度の話だ。

多項式カーネルでdimension=2 → 5までは順調に精度が上がったんだ
でもそれ以上次元を上げても精度は98%のまま上がらなくなった
ぐっと上げたら100%になるかなと思ってdimension=100にしてみたら50%に下がったんで意外だったって話
オーバーフィッティングさせようと思ったのに逆の結果になってしまった
389sage (ササクッテロル Spb3-9Pyw)
垢版 |
2019/02/01(金) 06:38:29.24ID:Vx0Z/hmbp
>>388
データの量がパラメータの個数と比べて少ないからじゃね
連立方程式で方程式の個数が未知数の個数より少ない感じ
2019/02/01(金) 08:32:41.57ID:cgFfgfk1d
>>375 で「サポートベクトルや素性の数に比べて次元を高くしすぎると逆に制約になる」と
書いてるからそれはわかってるんだろう

なんつーか、機械学習って仕組みをよくわかってないと陥る罠が多いよな
2019/02/02(土) 12:22:14.52ID:kCHJSmHN0
脱衣をcycleganで学習させようとしたが、着衣ができるようになったが脱衣は崩壊した
道は長い・・・

着せた
https://i.imgur.com/FrioFmb.png
https://i.imgur.com/DqnT0NT.png
https://i.imgur.com/8VLUQU9.png
https://i.imgur.com/rxHFpgZ.png

脱がせた(グロ)
https://i.imgur.com/5uGCIHh.png
https://i.imgur.com/yOovTQs.png
2019/02/02(土) 12:25:07.36ID:O32WGO0hp
>>391
すごいじゃん!
脱衣はDeep Dream状態だなww
2019/02/02(土) 12:36:34.43ID:kCHJSmHN0
ほんまDeep Dreamやで・・・
特に顔がぐちゃぐちゃになるからオカズとして使うのは難易度高すぎる
4日も回したのにorz
394デフォルトの名無しさん (ワッチョイ 5f7c-zGAl)
垢版 |
2019/02/02(土) 13:21:50.35ID:OjPcxytf0
>>391
もしかして
https://asahi.5ch.net/test/read.cgi/newsplus/1548736729/344
これもDLなん?
違和感あったんだけどDLだったら納得
2019/02/02(土) 13:24:55.62ID:BCOo8pbGM
過疎スレだからって無茶な遊びしてると官憲に捕まっても知らんぞ
2019/02/02(土) 13:27:00.00ID:kCHJSmHN0
>>394
これ人形じゃないの?
2019/02/02(土) 13:30:17.89ID:kCHJSmHN0
>>394
画像検索したらすぐに出てきた
【画像あり】アマゾンで10万円するラブドールを御覧ください・・・・
で検索して上から二番目。欲しい。
2019/02/02(土) 13:37:43.18ID:kCHJSmHN0
なんか違う
https://i.imgur.com/LiCHLPv.png
https://i.imgur.com/Z87M6Wz.png
疲れた
https://i.imgur.com/SE0Hlo1.png
https://i.imgur.com/DMArxVu.png

やっぱり自分でコード掛けるようにならないとダメかなぁ
399デフォルトの名無しさん (オッペケ Srb3-eDu2)
垢版 |
2019/02/02(土) 13:48:23.86ID:yHyEqvm0r
>>391
教師なしの分データを大量に用意するか姿勢やアングルを統一するかしないと難しいかも知れんな
2019/02/02(土) 15:58:44.14ID:Mi7Ld1wr0
>>398
教師データとモデルとチューニングだね
どれがかけてもイマイチな結果になる
2019/02/02(土) 16:40:42.94ID:2i53pqn+0
難しいなw
2019/02/02(土) 16:54:12.75ID:kCHJSmHN0
>>399
裸と着衣を6000枚ずつ、正面のみ抜き出したんだ
解像度や色合いなども合わせないとダメなのかもしれないね
正直、あの作業を二階やる気力がない
2019/02/02(土) 19:59:00.46ID:hDNgHqpo0
ふーん、進化するとモザイクを消すことも可能になりそうだな。
それ以前の標準的な画像に興味があるけど。
2019/02/02(土) 20:15:32.27ID:UgRB7QfQ0
>>391
4枚めの顔のオカルト臭がはんぱないw
2019/02/02(土) 20:41:10.93ID:bchpjdKP0
肌色のナゾ生物が沢山
2019/02/02(土) 21:04:35.36ID:wmeWjE8v0
>https://i.imgur.com/DMArxVu.png
微小領域の構造が見えてるな
プーリングの悪影響?
2019/02/03(日) 05:59:58.23ID:RMEp6fV60
お前らせっかく現代の最新技術を碌な事に使わんなw
2019/02/03(日) 12:31:54.55ID:OFpE3laYM
エロは軍事と並ぶ人間の原動力だからな
409デフォルトの名無しさん (アウアウイー Sab3-neQt)
垢版 |
2019/02/03(日) 12:56:06.72ID:KnacfqZIa
>>403
ビデオだったら、ほぼ100%に近く除去可能じゃないかな。
学習に十分でしょう。

消したところで、学習したかったのは何かという問題はある。
410デフォルトの名無しさん (ワッチョイ df7c-zGAl)
垢版 |
2019/02/03(日) 12:59:00.30ID:nprxb46h0
>>407-408
ほんそれ
411デフォルトの名無しさん (アウアウイー Sab3-neQt)
垢版 |
2019/02/03(日) 13:23:54.48ID:KnacfqZIa
昔々
VHSやBetaのビデオデッキが広まったのが
エロビデオのおかげだった
412デフォルトの名無しさん (ワッチョイ df7c-9cny)
垢版 |
2019/02/03(日) 13:32:43.84ID:nprxb46h0
ハニワや子消しが普及したのもエロの力
2019/02/03(日) 13:34:31.35ID:EboCbFko0
おっと電マの悪口はそこまでよ
414デフォルトの名無しさん (アウアウイー Sab3-neQt)
垢版 |
2019/02/03(日) 13:42:42.28ID:KnacfqZIa
神保町がAIのメッカになる日も近いな
芳賀書店中心にして
2019/02/03(日) 14:03:44.84ID:RMEp6fV60
>>411
洗濯屋ケンちゃんも見た事無いやつが偉そうに…。
2019/02/03(日) 14:19:31.41ID:EboCbFko0
タミヤのモーターはミニ四駆の為に発達したと信じてるぜ〜
2019/02/03(日) 14:35:08.80ID:g3Ljr8EM0
洗濯屋ケンちゃんは今見ると酷いレベルだゾ
現代人があれで抜くのはもう無理だろう
2019/02/03(日) 19:34:31.79ID:g3Ljr8EM0
思いつきでいいから誰かネタくれー
機械学習のためにグラボ買ったけど、回してないともったいなく感じる
2019/02/03(日) 19:38:04.18ID:EboCbFko0
最近はフォント生成がモテてるぞ
2019/02/03(日) 20:01:48.16ID:g3Ljr8EM0
>>419
おー!確かに学習素材を集めやすそうだ、ありがとう
ちょっとやってみるか
421デフォルトの名無しさん (オッペケ Srb3-xOdf)
垢版 |
2019/02/03(日) 20:44:40.88ID:v2v/PgFdr
ここみてたら機械学習とか超めんどそう
2019/02/03(日) 21:15:46.36ID:JIYTTgNa0
実際めんどい。
これだけやればこれだけ精度出るってのは基本わからんし、かなりやってみての世界だから。
2019/02/03(日) 22:38:44.61ID:g3Ljr8EM0
>>421
本気でめんどくさいぞ
技術も知識も必要な上に、素人がやってもGAFAの後追いにしかならない
ゲームみたいに素人でも時間かければそれなりに評価されるとかって分野でもない

他に特技ややりたいことがあれば、絶対にそっちやったほうが良い
2019/02/03(日) 22:59:14.75ID:3ZK0QSp00
片手間に使ってるだけだけど、正直、技術追うのも面倒くさいわ
重要論文だけ日本語解説したのを半年に一回くらい誰か送ってくれ
2019/02/04(月) 00:10:31.49ID:5nNQkv+ga
>>424
それにいくら出せる?
2019/02/04(月) 00:19:49.06ID:GwZ0bS4dp
>>424 やはり身につまされて使う場面を作らないとやる気にならないな。

株の予想には使うなよ。
2019/02/04(月) 00:41:34.21ID:uWxIg2u20
機械学習やりたいです!っていうのと、プログラミングやりたいです!ていうのちょっと似てる
どの分野のプログラミングやるかでだいぶ違うのと同じように、機械学習で何やるかでだいぶ違う
2019/02/04(月) 00:48:03.93ID:fURGpqAw0
>>425
論文一つ500円
半年で10本かな。
429デフォルトの名無しさん (アウアウエー Sa7f-zGAl)
垢版 |
2019/02/04(月) 00:51:04.42ID:ZoDPv0KAa
>>417
ほんそれ
田所裕美子がギリギリセーフ
今はほんと恵まれてる
初撮るるちゃん最高
430デフォルトの名無しさん (アウアウエー Sa7f-zGAl)
垢版 |
2019/02/04(月) 01:01:34.10ID:ZoDPv0KAa
>>421
データ集めるのが一番面倒
2019/02/04(月) 08:00:35.80ID:4DdryX/30
>>426
なんで?
2019/02/04(月) 08:33:30.59ID:5nOcRelB0
株価は後付
株価の変動だけで予測しても意味が無い
2019/02/04(月) 09:04:31.51ID:DizPkwOj0
なら競馬で
2019/02/04(月) 09:09:14.97ID:5nOcRelB0
競馬はニコニコがやってるね
結構勝っているようだ
2019/02/04(月) 09:18:56.98ID:6bWwOPcI0
トレーディングの場合はむしろテキストマイニング重視してる。
まだ実験段階だけどw
もちろん変動自体も大切だけどこっちは未来予測より現状分析的なものがメインで
機械学習は不要な気がする。
両者連動させたいなと思っていろいろやってるよw
436デフォルトの名無しさん (ワッチョイ df7c-zGAl)
垢版 |
2019/02/04(月) 11:08:38.76ID:zmkNdOJF0
>>391
何かに似てる気がしたがピカソの絵か
437デフォルトの名無しさん (ワッチョイ 5f7c-9cny)
垢版 |
2019/02/04(月) 11:09:46.29ID:i/JscoD+0
昨日のサイエンスZEROの
鬱病の薬探すのにML使うのって面白いな
2019/02/04(月) 12:19:40.14ID:5PrhzHI4M
GAFAの後追いでいいから、エロ系作ればユニークにはなれそう。
439デフォルトの名無しさん (スフッ Sd9f-iyvX)
垢版 |
2019/02/04(月) 12:42:30.49ID:sGoKHuh3d
ディープラーニングの今後について教えて下さい。
これには、2つの意見があって

あくまでも機械学習の一種に過ぎず
一時的なブームにすぎない。という立場。

もう一方は
特徴表現学習が出来るのだから
言語理解まで出来て、人間のように言語理解が出来るAIが誕生する可能性。

どちらの方が可能性高いのでしょうか?
440デフォルトの名無しさん (ワッチョイ 5f68-UaAB)
垢版 |
2019/02/04(月) 12:58:50.61ID:jZQr0rin0
前者
441デフォルトの名無しさん (ワッチョイ dfe6-zGAl)
垢版 |
2019/02/04(月) 13:58:39.07ID:hR3rOPvM0
>>439
今の技術じゃ前者だね
あくまでも一度に大量のデータを使って分類してるだけなので

人間のように応用までするには
全く違う設計の学習システムが必要になる
この辺はgoogleも課題にしてたはず
442sage (ササクッテロレ Spb3-9Pyw)
垢版 |
2019/02/04(月) 14:51:20.28ID:+Jx4UBlxp
>>439
東大受験で国語とかが比較的成績悪かったって結果が出ていたはす
443デフォルトの名無しさん (スフッ Sd9f-iyvX)
垢版 |
2019/02/04(月) 15:11:16.24ID:sGoKHuh3d
>>442
『AI vs 教科書が読めない子どもたち』ですね。
国語は言語理解が必要なので、現状のAIでは無理だと。

でも、今のAIは言語理解ができないことは最初から分かりきっていたことだと批判がある。
なんで、東ロボくんやったのかな。
2019/02/04(月) 16:08:31.67ID:194t70hEF
分かりきっていたことでもベンチマークは必要でしょう
2019/02/04(月) 16:13:11.59ID:194t70hEF
人間の知能は2階建てで、いまのディープラーニングブームは1階部分に相当する。
昔、第1次AIブームの時は1階部分をすっ飛ばして2階部分(記号論理学的なところ)ばかりやっていた。
だからブームが一段落したら、二つを結合させようという研究へ進むと思う。
2019/02/04(月) 16:19:18.64ID:ckli78Mh0
ベンチマークとして
とりあえずしゃぶれよ
447デフォルトの名無しさん (オッペケ Srb3-xOdf)
垢版 |
2019/02/04(月) 16:21:25.66ID:Qx+SAuX0r
>>422
>>423
>>430
誰かが作った学習モデルとか汎用的な学習モデルじゃ結局実運用には使えないんだよね?

これから機械学習やりたい!って奴多いけど挫折しそう
2019/02/04(月) 16:36:12.33ID:TOY30QoHa
・金出して専門家に外注する
・専門家を直接雇う
・自分が専門家になる
このどれかでなければ実務では成功しない
一番ダメなのは専門知識無い人がお手軽AIツールとやらをポチポチやってモデル作れたぜ!というパターン
2019/02/04(月) 18:06:13.05ID:9NwEuJOZ0
心配するなブームは終わっている
2019/02/04(月) 18:21:06.83ID:1YKw/EWr0
>>439
あくまで一時的なブームだからその時できなかった奴は、そのまま忘れて
出来る奴はひたすら深度を深めて、ある日突然実用度に達して特定業種の
仕事を奪い取る。
翻訳者とか会議の文字起しとか、あるいは医師の診断とか。


>言語理解まで出来て、人間のように言語理解が出来るAIが誕生する可能性。

こんな物のの可能性はない。
2019/02/04(月) 19:09:08.20ID:CLpqTC7n0
>>450
>翻訳者とか
google 翻訳の結果をみるかぎり現状は悲惨だと思います、google 翻訳による wikipedia の記事の日本語は、母語話者として全く「共感」できませんね…
2019/02/04(月) 19:11:45.84ID:5nOcRelB0
日本語は特殊なので・・・
アメリカ・ロシア間の翻訳は凄いらしいけどね
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況