X



【統計分析】機械学習・データマイニング20
レス数が1000を超えています。これ以上書き込みはできません。
0001デフォルトの名無しさん (アウアウエー Sa5f-Mv1r)
垢版 |
2018/08/07(火) 18:56:37.59ID:sGPH9ejna
機械学習とデータマイニングについて何でもいいので語れ若人

※ワッチョイだよん

次スレ立ての際は、一行目冒頭に
!extend:on:vvvvv:1000:512つけてね

■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング19
http://mevius.2ch.net/test/read.cgi/tech/1520586585/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured
0002デフォルトの名無しさん (アウアウエー Sadf-Mv1r)
垢版 |
2018/08/07(火) 18:57:06.02ID:sGPH9ejna
【統計分析】機械学習・データマイニング11
http://echo.2ch.net/test/read.cgi/tech/1482227795/
【統計分析】機械学習・データマイニング12
http://echo.2ch.net/test/read.cgi/tech/1485008808/
【統計分析】機械学習・データマイニング13
http://echo.2ch.net/test/read.cgi/tech/1487433222/
【統計分析】機械学習・データマイニング14
http://echo.2ch.net/test/read.cgi/tech/1489636623/
【統計分析】機械学習・データマイニング15
http://mevius.2ch.net/test/read.cgi/tech/1492344216/
【統計分析】機械学習・データマイニング16
http://mevius.2ch.net/test/read.cgi/tech/1498493352/
【統計分析】機械学習・データマイニング17
http://mevius.2ch.net/test/read.cgi/tech/1502032926/
【統計分析】機械学習・データマイニング18
http://mevius.2ch.net/test/read.cgi/tech/1507807291/
0003デフォルトの名無しさん (アウアウエー Sadf-Mv1r)
垢版 |
2018/08/07(火) 18:57:28.97ID:sGPH9ejna
【統計分析】機械学習・データマイニング【集合知】
http://toro.2ch.net/test/read.cgi/tech/1286200810/
[統計分析]機械学習・データマイニング[集合知] 2
http://toro.2ch.net/test/read.cgi/tech/1342812444/
【統計分析】機械学習・データマイニング3
http://peace.2ch.net/test/read.cgi/tech/1350121405/
【統計分析】機械学習・データマイニング4
http://peace.2ch.net/test/read.cgi/tech/1403603502/
【統計分析】機械学習・データマイニング5
http://peace.2ch.net/test/read.cgi/tech/1439302488/
【統計分析】機械学習・データマイニング6
http://echo.2ch.net/test/read.cgi/tech/1455651930/
【統計分析】機械学習・データマイニング7
http://echo.2ch.net/test/read.cgi/tech/1460535528/
【統計分析】機械学習・データマイニング8
http://echo.2ch.net/test/read.cgi/tech/1464586095/
【統計分析】機械学習・データマイニング9
http://echo.2ch.net/test/read.cgi/tech/1470037752/
【統計分析】機械学習・データマイニング10
http://echo.2ch.net/test/read.cgi/tech/1479498503/
0004デフォルトの名無しさん (アウアウエー Sadf-Mv1r)
垢版 |
2018/08/07(火) 18:59:38.03ID:sGPH9ejna
■関連スレ
パーセプトロン
http://rio2016.2ch.net/test/read.cgi/informatics/1330911251/
人工知能ディープラーニング機械学習のための数学
http://mevius.2ch.net/test/read.cgi/tech/1482808144/
Deep learning
http://mevius.2ch.net/test/read.cgi/tech/1387960741/
ディープラーニング(過去ログ)
http://echo.2ch.net/test/read.cgi/tech/1457792560/
自然言語処理スレッド その4
http://mevius.2ch.net/test/read.cgi/tech/1401741600/

■人工知能考察スレ
(強いAI)技術的特異点/シンギュラリティ(知能増幅) 74
http://rio2016.2ch.net/test/read.cgi/future/1498186101/
(AI)技術的特異点と政治・経済・社会等(BI) 10
http://rio2016.2ch.net/test/read.cgi/future/1498288837/
(情報科学)技術的特異点と科学・技術等 2
http://rio2016.2ch.net/test/read.cgi/future/1489922543/
人工知能
http://rio2016.2ch.net/test/read.cgi/future/1286353655/
人工知能で自我・魂が作れるか
http://rio2016.2ch.net/test/read.cgi/future/1476229483/
こころがあるロボットは作れるのか
http://rio2016.2ch.net/test/read.cgi/robot/1287505889/
0005デフォルトの名無しさん (アウウィフ FFa7-10BI)
垢版 |
2018/08/07(火) 19:15:16.08ID:pTM8y/NsF
O2
0008デフォルトの名無しさん (ワントンキン MM9f-Y7Vv)
垢版 |
2018/08/08(水) 16:43:32.70ID:8wlFoTsYM
Rはもう結構昔からもう終わりじゃね、と言われていたけど、むしろ最近書籍増えてるよね。
機械学習でも統計でも。

Mathematicaは本が激減したなあ。
その手の用途はだいたいPythonに移ったってことか?
0012デフォルトの名無しさん (アウアウウー Sa2f-BRNY)
垢版 |
2018/08/09(木) 08:26:32.93ID:9inRiYG9a
>>11
中学や高校でプログラムの授業やるみたいやけどpythonとsympyを数学の授業で教えといたら使えるようになるやろ。
0014デフォルトの名無しさん (ワイーワ2 FF82-VDz4)
垢版 |
2018/08/09(木) 10:40:56.18ID:NXkdt6vrF
うむ
0019デフォルトの名無しさん (ワッチョイ de8a-IeV5)
垢版 |
2018/08/09(木) 18:52:27.78ID:zr10dTEW0
機械学習なんて学校教育で教えるような分野でもないよ
寝言でもなんでもなく、基礎のある奴が本気で取り組めば一年で最先端に追いつく分野
実務で使おうと思えばやること増えるけど

てか、機械学習って日本ではそんなに需要ないよね
0024デフォルトの名無しさん (アウアウエー Sac2-VDz4)
垢版 |
2018/08/10(金) 18:16:56.60ID:4q34i5cva
そうでもない
0025デフォルトの名無しさん (ブーイモ MM76-Rf1C)
垢版 |
2018/08/10(金) 19:25:59.91ID:ZeKsZHvVM
ライブラリとコミュニティの違いを除いてrubyがpythonに明確に劣ってる感じはしないけどなあ。
まあバージョン1.8でrubyからpythonに乗り換えたんでそれ以降はあまり知らないんだけど。
0040デフォルトの名無しさん (ワントンキン MM3a-Hn5+)
垢版 |
2018/08/11(土) 10:37:35.90ID:3iVckqArM
>>25
>ライブラリとコミュニティの違いを除いてrubyがpythonに明確に劣ってる感じはしないけどなあ。

いやそれが決定的に重要だったてことじゃね?
宗教に例えればpythonはキリスト教
rubyはモルモン教
おんなじようなもんじゃんというかもしれんが輸血も剣道も禁止したりと迷惑カルトみたいなもの
0042デフォルトの名無しさん (アウアウウー Sa2f-BRNY)
垢版 |
2018/08/11(土) 13:15:36.99ID:ptTYphAna
>>21
バージョン1.0が出たJuliaにも集まれ。
0043デフォルトの名無しさん (ワッチョイ cb9b-0FQr)
垢版 |
2018/08/11(土) 13:41:33.80ID:KC+spD7B0
機械学習とその他の統計分析の手法の選択って
元データがほとんど定量的な数値だったら機械学習、
データに文字列とか定性的なカテゴリ型を多く含むのだと
したら重回帰分析とかピボットテーブルみたいな切り分けでいいの?
0049デフォルトの名無しさん (ワッチョイ 679f-FZsK)
垢版 |
2018/08/13(月) 17:17:27.35ID:pQ0BapEF0
機械学習の説明変数にカテゴリー的なデータを
数値化したものがあってもうまく学習できますか?
たとえば
「月」のカラムに「1~12」までの数値のどれかが格納され、
「曜日」のカラムに「0~6」まで
「日」のカラムに「1~31」のどれかを格納して学習させることは
できますか?
アルゴリズムはRBFのSVM
ランダムフォレスト
ニューラルネットなどを使うつもりです。
株価などを予測したくて、
ラベルには「急上昇」「上昇」「横ばい」「下落」「急下落」の
5クラスに分類したいです。
0058デフォルトの名無しさん (ワッチョイ 9ed2-Hn5+)
垢版 |
2018/08/14(火) 19:43:58.53ID:o5he+gY00
何十年か昔のニューロン研究のブームのときもヒューリスティックに株価のパターンを発見して儲けるみたいな研究が紹介されてた記憶があるけど、その後下火になったような

株価はやはりランダムウォークで、テクニカルな分析なんて無効だと思うけど、完全に否定も出来ないから機械学習だなんだと新手のバズワードが出てくるんじゃないかな性懲りもなく

といいつつ俺もツイッターの株に関する書き込みや日銀短観の文の感情分析との関係で予測出来ないか研究してるよ

でも仮に儲かる仕組みを見つけても誰にも教えないでこっそり自分だけ儲けるけどね
0063 ◆QZaw55cn4c (ワッチョイ ea60-Qb5F)
垢版 |
2018/08/15(水) 00:07:24.44ID:a3nr9Eye0
>>61
今は世界中で緩和しまくりだから、本当の価値なんてわからない、ファンダメンタルなんてあてにならないと考えます
0069デフォルトの名無しさん (ワッチョイ 5f23-VDz4)
垢版 |
2018/08/15(水) 12:59:17.34ID:Y4UT7naw0
小野田少尉のやつもひどかった
0070デフォルトの名無しさん (ワッチョイ 8a23-2km2)
垢版 |
2018/08/15(水) 13:24:02.67ID:Rh1wPTDz0
NHKが作ったAI凄いね。これからどんどん戦前の映像がカラー化されそう

人間のように成長するAl(人工知能)! 80年前の白黒映像がカラーで蘇る!
https://www.nhk.or.jp/ten5/articles/17/003065.html

> この最新技術を活用する初めての番組が、8月に放送されます。
> NHKスペシャル「ノモンハン事件(仮)」ぜひご覧ください。
0073デフォルトの名無しさん (ワッチョイ 0fc6-yN1c)
垢版 |
2018/08/15(水) 14:23:32.45ID:sp3AjTCJ0
できることのレベルが違う。

自動車や電車を、走ることなら人間でもできるといっても無理。
自動車や電車のようには人間は走れないし、
AIのように人間はゲームに強くない。
0075デフォルトの名無しさん (ワッチョイ 5f23-VDz4)
垢版 |
2018/08/15(水) 15:52:29.71ID:Y4UT7naw0
>>74
価値がないどころか価値が下がる
0078デフォルトの名無しさん (アウアウウー Sa2f-nKX0)
垢版 |
2018/08/15(水) 17:06:05.10ID:L1yVVjUFa
写真に関しての資料としての価値とは現実をより正確に表現することであり、それなら当然カラーの方が価値は高いだろう
白黒写真を白黒写真としてできる限り良い状態で保存できていることが価値の高さを示すものでは決してない
0083デフォルトの名無しさん (ワッチョイ 679f-FZsK)
垢版 |
2018/08/15(水) 18:24:30.41ID:evuO2JQD0
異常検知と株式予測って同じ技術使えるのかね。
株式予測は「異常に変化する点」を予測できればいいんでしょ?
しかし完全に物理要因の機械故障の予測と、
人間の思惑が絡み合う市場経済に違いがあるかってことが重要だな。
RNNやLSTMは一般向けの技術書はまだ少ないね?
ちょっと論文から読む気にはならんわ。
やっぱり画像処理や自然言語なんかより、金そのもののほうがモチベーション全然
違うよな。
0084デフォルトの名無しさん (ワッチョイ 5f23-VDz4)
垢版 |
2018/08/15(水) 18:41:00.14ID:Y4UT7naw0
金額だけ見るんじゃなくて
事件とかのニュースも見ればいいんじゃね
0085デフォルトの名無しさん (ワッチョイ de8a-IeV5)
垢版 |
2018/08/15(水) 18:53:35.96ID:hcpx9XaF0
たかがはじパタ本を読んだぐらいで

「もう理論の基本的なところは理解してるから、
 識別機のコードを書くぐらい簡単に出来るだろう♪」

などと息巻いていたが最近になってやっと現実を思い知った
機械学習のプログラミング、マジむずい
写経を繰り返せば身につくのかなあ(遠い目)
0086デフォルトの名無しさん (ワッチョイ 679f-FZsK)
垢版 |
2018/08/15(水) 19:15:44.40ID:evuO2JQD0
>>84
それだと事件とかニュースをデータ化しないといけないじゃん。
そうすると自然言語処理をしないといけない。
ファンダメンタル情報も体系化されていれば分析もできなくもないが、
基本的に株価情報のみに基づく予測じゃないと、前処理が大変だ。
0089デフォルトの名無しさん (ワッチョイ 679f-FZsK)
垢版 |
2018/08/15(水) 22:35:22.52ID:evuO2JQD0
ランダムフォレストって神だな
スケールの正規化もダミー変数化も必要ないのかよ。
0093デフォルトの名無しさん (ワッチョイ 0b9f-gLMN)
垢版 |
2018/08/16(木) 08:35:39.93ID:I/85hfE80
株価情報だけに基づく予測とか転換点の見極めだと
結局のところ数多くあるテクニカル分析のどれかと
似たり寄ったりの結果にしかならなそうだ

かと言って財務情報を加えればファンダメンタル分析と変わらず
ツイッターやニュースなどの情報を加えればノイズが多すぎる
0094デフォルトの名無しさん (アウアウウー Sa4f-ot+S)
垢版 |
2018/08/16(木) 08:43:11.46ID:olaq8Ifaa
大口機関投資家は相場を当てに行くんではなく相場を作りに行くんだからな。
0096デフォルトの名無しさん (ワッチョイ db9f-f+/+)
垢版 |
2018/08/16(木) 17:39:09.28ID:G6TcbKDp0
>>94
だからなんだよ
相場を作れる奴なんてわずかしかいないんだから
当てるしかないんだよ。
ノイズは乗ることが前提じゃないか?
除去すればいい。
ところで既存のテクニカル分析がもともと精度いいなら
それで十分かもな。
どうしても不安なら機械学習で裏をとればいいかも。
0100デフォルトの名無しさん (アウアウウー Sa4f-YM2i)
垢版 |
2018/08/17(金) 12:20:16.25ID:sO++Wjmca
AI=Artificial Intelligence=人工的に作られ知能を持つように見えるもの、
程度の曖昧な意味しかないので内部の仕組みに関わらず知能を持ってるっぽいものは全てAIと呼んで問題ない
そもそも技術者はこんな定義の曖昧な言葉は使いたがらず、営業など技術の詳細を知らない人間が売り文句に使うだけなのであまり信用してはならない
0101デフォルトの名無しさん (ワイーワ2 FF3f-HyiG)
垢版 |
2018/08/17(金) 12:45:30.22ID:23Jvz4gXF
人工痴能アイちゃん
0107デフォルトの名無しさん (アウアウウー Sa4f-YM2i)
垢版 |
2018/08/17(金) 18:19:35.25ID:kTNZgpGBa
普通の機関投資家が投資する場合は損失出しまくればその部門の責任者が何らかの形で罰を受けるだろうけどAI投資なら誰も責任取らなくて済むんだろうな
開発会社が投資結果に責任負うような契約するわけないだろうし
0109デフォルトの名無しさん (ワッチョイ 0f8a-QxOT)
垢版 |
2018/08/18(土) 19:11:08.68ID:Y3qX5jYN0
スクラッチで識別器を組む参考書ばかりやってきたから
sklearnを使う参考書を読み始めてから楽勝ムードが漂いはじめてる
案外、こんなもんか

てか、スクラッチでなにも見ないで識別器を組める奴なんて一部だけで
みんなライブラリ使って楽してるのか? そんなわけないよな
0110デフォルトの名無しさん (アウアウエー Sa3f-HyiG)
垢版 |
2018/08/18(土) 19:14:28.41ID:IyhzoKxXa
中身判らずにブラックボックスで楽しんでる人は多い
本人がそれでよければ周りがとやかく言うことじゃない
0112デフォルトの名無しさん (スップ Sdbf-O7l2)
垢版 |
2018/08/18(土) 19:40:45.28ID:7isjh9bnd
コスト意識がないのはスレに学生さんが多いのだろう。
暇なうちにゼロから作るのは悪いことじゃないけど、スクラッチ自慢する人が cuda対応とかもちゃんとやってるかは怪しいもんだがw
0118デフォルトの名無しさん (ワッチョイ 8beb-QxOT)
垢版 |
2018/08/18(土) 22:06:31.67ID:c/WdprwC0
わからないままプログラムを書くのならまだいいけど、バカは調子に乗ってブログや本を書いちゃうんだな
0120デフォルトの名無しさん (ワッチョイ 8beb-QxOT)
垢版 |
2018/08/18(土) 22:17:46.51ID:c/WdprwC0
ただ今はまだ、分かっても居ない胡散臭い奴らも仕事を取れてるみたいだぜ
バカに金を払うぐらいならWekaあたりを自分で動かしても同じなのに
0125デフォルトの名無しさん (アウアウエー Sa3f-HyiG)
垢版 |
2018/08/19(日) 13:02:07.73ID:plhuPGbSa
AIちゃんおさるさん禁止
0129デフォルトの名無しさん (ワッチョイ 8beb-Mwiu)
垢版 |
2018/08/19(日) 23:45:35.87ID:Nj9VAWsX0
まあ、経営(営業?)はハッタリと詐欺みたいなもんだからな
だけどここはデータ解析のスレなんで詐欺師は他に行ってくれないかな
0135デフォルトの名無しさん (JP 0Hcf-RGzT)
垢版 |
2018/08/20(月) 11:08:35.48ID:Mb0KvSPWH
パクリのくせに独自技術とか言っちゃう面の皮の厚さが必要(中国みたいな)
0139デフォルトの名無しさん (ワッチョイ 0f79-TrtP)
垢版 |
2018/08/21(火) 01:36:24.60ID:/yckThHF0
自称データサイエンティストwにはコスト意識欠如したバカが多い
RMSE0.01の世界を仕事に持ち込むかどうかは
解こうとしてる業務課題によるってのを分かろうとしないんだよな
kaggleみたいな趣味を仕事に持ち込むなっての
0141139 (ワッチョイ 0f79-TrtP)
垢版 |
2018/08/21(火) 02:55:06.78ID:/yckThHF0
santanderだかhomecreditだか知らんが
お前らはそのクズ脳使って現実世界で
いかに結果を出すかが勝負だろうに・・・
こんなクズらを量産してるコンペサイトも責任あるわな
0147デフォルトの名無しさん (ワッチョイ ead2-Gisg)
垢版 |
2018/08/24(金) 04:27:49.76ID:/HKmPBJZ0
バリバリやってるような若い人は来ないんじゃね
今やひろゆきプラマイ3歳くらいのロートルおっさんの吹き溜まりでしかないから
0148デフォルトの名無しさん (ワッチョイ 668a-wF79)
垢版 |
2018/08/24(金) 18:27:13.17ID:6/Hl2w7N0
kaggleを仕事の世界に持ち込むメリットそこそこあるけどな
やっぱりkaggleで称号を持つぐらいの奴が会社にいれば
営業が社の強みとしてアピールできる材料に出来るだろうし
なにより流れ作業で仕事をしないことで、知識が蓄積されるから人材が育つ

識別器のライブラリだけ暗記して、直感の力で仕事をしている奴なんて
いずれは冷や飯を食うことになるから
ブームが続いている今のうちに、早く新しい分野を開拓しないと
0155デフォルトの名無しさん (ワッチョイ 1e8a-EM0A)
垢版 |
2018/08/25(土) 13:29:16.58ID:DbpiyqTC0
大企業で機械学習のエンジニアやっても
pandasでデータを読み込んで、sklearnで識別器を用意してデータに適合させて
予測を出して、識別精度を確認して、matplotlibでグラフに吐き出して、「ハイ、終わり!」
というイメージがある
実際はもっと大変なことしてるんだろうけど
0159デフォルトの名無しさん (ワッチョイ bd23-oIkv)
垢版 |
2018/08/25(土) 16:15:01.69ID:XJJEagRp0
ネット検閲を人力でやる国だからな
0162デフォルトの名無しさん (ワッチョイ ead2-Gisg)
垢版 |
2018/08/26(日) 02:03:09.46ID:xGLfO5+N0
アルファ碁ってハードと電気代凄いんだっけ
古い話だがディズニー初CG映画のトロンのエンドロールで
CG風手書きの中国人クレジットが大量に出てたの思い出した
0163デフォルトの名無しさん (ワッチョイ 2a23-PcWx)
垢版 |
2018/08/26(日) 09:08:47.86ID:Y7gWViZy0
>>162
普通のPCだと計算に2万年掛かるらしいw

論文でこうやれば、とんでもなく強い将棋ソフトが出来るよ〜って発表されてるのに、
ハードのハードルが高すぎて、誰も再現できてない
0171デフォルトの名無しさん (ワッチョイ 668a-wF79)
垢版 |
2018/08/27(月) 16:52:51.31ID:9Rk35fCU0
大学一年レベルの数学→最適化数学→はじパタ本→達人データサイエンティストによる理論と実践
これにプラスで、ゼロから作るdeep learningを読めば、ベースの知識は作れる
0172デフォルトの名無しさん (アウウィフ FFa1-DNis)
垢版 |
2018/08/27(月) 17:38:35.99ID:Q4eMB8PsF
ただしF欄は除く
0173デフォルトの名無しさん (ワッチョイ b65a-/8lv)
垢版 |
2018/08/27(月) 19:28:35.38ID:3tv7gyOX0
>>168
・やさしく学ぶ 機械学習を理解するための数学のきほん
・人工知能プログラミングのための数学がわかる本
・ゼロから作るDeep Learning(2冊)
0174デフォルトの名無しさん (フリッテル MM2e-oIkv)
垢版 |
2018/08/27(月) 22:19:47.74ID:S8OKJlGuM
kerasのLSTMって、まだpeepholeに対応してないの?
0177デフォルトの名無しさん (アウアウウー Saa1-Zm8m)
垢版 |
2018/08/28(火) 05:35:17.79ID:uOZLnoMMa
日本はAI・ロボット化の開発競争に敗れ国際競争力を失い下手をすると2025年あたりには一億総失業になる。
0180デフォルトの名無しさん (ブーイモ MM8e-/8lv)
垢版 |
2018/08/28(火) 08:50:04.97ID:ESzSTJ18M
中身大して変わらないのにタイトルに「機械学習のための〜」とか付けると馬鹿が買ってくれる
0183デフォルトの名無しさん (アウアウウー Saa1-Zm8m)
垢版 |
2018/08/28(火) 10:12:48.93ID:AXaUJqBfa
>>181
石村夫妻が「よくわかる機械学習のための数学」とか長沼伸一郎氏がブルーバックス本を書かないのがおかしい。
0186デフォルトの名無しさん (ラクッペ MMed-NdIa)
垢版 |
2018/08/28(火) 15:15:25.81ID:DCHZu+I+M
pythonとkerasによるディープラーニング買った
これでkeras極めるけどkerasくらいならこの本いらんかったかな…
0187デフォルトの名無しさん (ラクッペ MMed-NdIa)
垢版 |
2018/08/28(火) 15:17:58.39ID:DCHZu+I+M
ディープじゃない機械学習って学ぶ意味ある?
素人の素朴な疑問でごめん
sklearnはデータ分割する時くらいしか使わないなあって思って
0188デフォルトの名無しさん (アウアウウー Saa1-Zm8m)
垢版 |
2018/08/28(火) 15:19:13.14ID:+GOrwNtLa
>>186
tensorflowも一緒に。
0189デフォルトの名無しさん (ラクッペ MMed-NdIa)
垢版 |
2018/08/28(火) 15:25:32.48ID:DCHZu+I+M
>>188
グローバルなんちゃらイニシライザーとか長すぎんねん名前
0197デフォルトの名無しさん (ワッチョイ a54b-c68X)
垢版 |
2018/08/29(水) 00:12:46.00ID:PwHTZQO10
機械学習ブームに乗って、生まれ変わったら異世界のデータサイエンティストだったで電撃に応募する
0203デフォルトの名無しさん (アウアウエー Sa52-F86p)
垢版 |
2018/08/29(水) 04:08:11.80ID:4LmLfDb3a
>>96
多数決システムにすれば良い
0204デフォルトの名無しさん (アウアウウー Saa1-Zm8m)
垢版 |
2018/08/29(水) 06:26:09.02ID:UP9EO1Hha
>>201
やはりgoogleのtensorflowだろ。
0206デフォルトの名無しさん (ワッチョイ 2a23-PcWx)
垢版 |
2018/08/29(水) 12:46:20.23ID:WJGhptOe0
kerasの作者の本読んだら、
「ディープラーニングで相場の予想は出来ない。やるだけ無駄なので時間を捨てるのは止めとけ」って全否定されてたわ

わざわざ苦言を呈するくらい相場の予想させたいって奴ばっかりなんだろうね
0209デフォルトの名無しさん (ワッチョイ db4b-BaxO)
垢版 |
2018/08/30(木) 00:40:05.35ID:D8zsotkh0
まだTensorFlowでゴリゴリ書いてる奴おる?
0210デフォルトの名無しさん (ワッチョイ 0580-rkYf)
垢版 |
2018/08/30(木) 00:57:56.81ID:/0YXnEsV0
むしろTensorFlowはモデルが理解できてないヤツには使えない
それ以外のは機械学習がよく分からなくても使えた気になれる
0212デフォルトの名無しさん (アウアウウー Sa19-4azP)
垢版 |
2018/08/30(木) 06:17:31.53ID:3sbg3Riaa
>>210
chainerなんかわかりやすいのに人気ない。
0218デフォルトの名無しさん (ササクッテロ Spf1-Mm8o)
垢版 |
2018/08/30(木) 11:29:20.12ID:Aa6QMEJ0p
参考書とか見ながら機械学習の勉強始めて、初めて仕事でデータ分析的なことをやってみたんだけど絶望的に何も結果を出せない
データセットの理解も出来ないしどういうアプローチをしていけば良いのかも思いつかない
そもそも分析と呼べる領域にすら達してない
理解する頭やセンスも必要だと思うし自分も能力が低い人間なのは十分理解してるけど、分析能力はどうやって身につければ良いんだろう
やっぱり数こなすしかないかな?
0219デフォルトの名無しさん (ワイーワ2 FF13-jOsm)
垢版 |
2018/08/30(木) 11:38:50.75ID:S/vwwZyFF
ここに書けば親切なみなさんが教えてくれるはず
0222デフォルトの名無しさん (ワイーワ2 FF13-jOsm)
垢版 |
2018/08/30(木) 13:25:06.37ID:S/vwwZyFF
Don't use ThinkPad, FUJITSUUUUUUU!!!
0225デフォルトの名無しさん (ササクッテロ Spf1-Mm8o)
垢版 |
2018/08/30(木) 14:31:20.51ID:Aa6QMEJ0p
>>221
ほんとはめっちゃ詳しく書きたいけど誰が見てるから分からないから凄く端折ってるけど今はある装置のトラブル要因を調べてる
データは特徴量が200個あって1万レコードくらいある
ただこの装置自体は見たことがなくて装置自体の知見も浅い分野だからデータセットは理解できてない
明らかに要らなそうなデータは消して特徴量を選択して決定木にかけて、重要な特徴量に対してペアプロットを出すところまでは来た
プロットの結果は分類自体がほぼ出来ていなくて、唯一差が見れそうなところに見てみようと思ったんだけど、
結局そこはどこどこの数値が高くなると異常が出やすい、くらいの説明しか出来なくてその値がなぜ高くなるかを見つけ出すべきなんだろうけどデータや機構が分からなくて何から手をつけて良いか分からないってところで止まってる
こんなのは多分現場の人は感覚的に分かってる話だから何の意味もないよね
0227デフォルトの名無しさん (アウウィフ FF19-jOsm)
垢版 |
2018/08/30(木) 15:21:00.65ID:RB/VojpjF
民間ロケットかω
0230デフォルトの名無しさん (ワッチョイ 351e-J7KC)
垢版 |
2018/08/30(木) 17:17:26.23ID:lMDVbSRW0
>>225
>データは特徴量が200個あって1万レコードくらいある
直感的に、少なくない?

>ただこの装置自体は見たことがなくて装置自体の知見も浅い分野だからデータセットは理解できてない
それが問題じゃん。装置自体調べろよ。
ていうか物理現象を調べてるのか?
なら機械学習を使う意味があるのかがそもそもわからんな
しいていうなら相関の強いものを上から順に並べるとか
ヒステリシスを持っている可能性を考慮するために、プロット上げる方向と下げる方向を別変数にしたほうがいいかも
0231デフォルトの名無しさん (ワッチョイ 8da5-Mm8o)
垢版 |
2018/08/30(木) 18:48:13.32ID:zHnsz/ji0
>>230
特徴量200って少ないのか…
装置見れれば良いんだけど、身近にある物じゃないから見れなくてさ…
相関関係を見るなら重回帰かなと思って一応やってみたんだけど、言ってくれてる通り物理現象で動きには前回の動きとかも考慮して特徴量増やしたりしなくちゃいけないはずなんだけど結局データセットが分からないから行き詰まってしまった

>>ヒステリシスを持っている可能性を考慮するために、プロット上げる方向と下げる方向を別変数にしたほうがいいかも

これってどういう意味かな…
理解出来なくてごめん
0232デフォルトの名無しさん (ワッチョイ 351e-J7KC)
垢版 |
2018/08/30(木) 19:08:50.69ID:lMDVbSRW0
>>231
>特徴量200って少ないのか…
いや、変数200に対してデータ数10000は、
データのほうが少ないのではないか、と

>>ヒステリシスを持っている可能性を考慮するために、プロット上げる方向と下げる方向を別変数にしたほうがいいかも
>これってどういう意味かな…
ヒステリシスを持つ可能性があるため、パラメータは上げる方向と下げる方向、両方測定する
っていう実験物理の基本は知ってるよな?
パラメータ上がる方向と下がる方向は別の変数にしないと区別できないんじゃないか、と
0235デフォルトの名無しさん (ワッチョイ 351e-zBrR)
垢版 |
2018/08/30(木) 21:35:27.97ID:NQz3sjtC0
>234
マジモンのチームメイトなら少しはサポートしてやれよ。
仮に上司だとして結果が出せない部下を放置って、今の時代ならパワハラ案件だろ。
まぁブラフだろうが。
0236デフォルトの名無しさん (ワッチョイ 8da5-Mm8o)
垢版 |
2018/08/30(木) 22:03:46.63ID:zHnsz/ji0
>>232
ぐ…よく分からん…ごめん
調べてみる…何かつかめるように頑張るよ

>>235
出来が悪い俺がダメだと思うよ
質問するにも何が分からないかすら分からない自分があまりにも無力…!
明日は何か少しでも前進出来るように頑張るよ
0240デフォルトの名無しさん (アウアウウー Sa19-lQkG)
垢版 |
2018/08/31(金) 11:58:13.87ID:8oqZjBEKa
効いてる特徴量見たいだけだったら、ランダムフォレスト かxgboostでモデル作ってFeature Importance見ればいいんでない?
なぜ効いてるかについては別途考察が必要になるけど
0242デフォルトの名無しさん (ワッチョイ a3b3-zJks)
垢版 |
2018/08/31(金) 17:32:55.30ID:xOkTAq7n0
特徴量200だと相関関係にある特徴量同士や結果にまったく影響しない特徴量が多そうだな
そういうのを絞らないとメモリを食うだけで確実な結果が出ないと思う
0243デフォルトの名無しさん (マクド FFe1-J7KC)
垢版 |
2018/08/31(金) 20:20:22.26ID:1Ee7C22hF
>>225
装置の故障に関係のある特徴量を調べたいだけなら
ランダムフォレストではなく、もっと別の識別器を使った方がいいんじゃないか
0244デフォルトの名無しさん (マクド FFe1-J7KC)
垢版 |
2018/08/31(金) 20:35:34.13ID:1Ee7C22hF
ランダムフォレストは不純度の減少に関係ある特徴量を重要度でピックアップしてくれるだけだから
故障の原因を調べるなら、むしろ関係のない特徴量を削ったり、選択したりする方に
機械学習を使うべきだと思うんだ
ロジスティック回帰とか、KNNにSBSを適用するとか
いきなりランダムフォレストでがばっとやってるなら雑過ぎると思う

あと装置について何も知らないなら
分析結果を提出して仕事完了以外に何も出来ない気がするんだけど
0245デフォルトの名無しさん (ワッチョイ 8da5-Mm8o)
垢版 |
2018/09/02(日) 16:06:18.87ID:qpc9/9Oc0
>>225 です
レスくれた人ほんとにありがとう

一応自分では>>240で出した結果から重要度が高いものに対して>>238を出すところまではやってみた
ただ特徴量の選択だったり、自分で特徴量を増やしたりする必要がある可能性があったけどその辺が不十分だから正常時と不良時の変化は捉えきれなかった
急ぎの案件ではないから装置に詳しい人にもっと詳細に聞いてから見直してみる
0246デフォルトの名無しさん (ワッチョイ 8da5-Mm8o)
垢版 |
2018/09/02(日) 16:10:25.31ID:qpc9/9Oc0
>>242
自分なりに考えて削ったところ残ったのは半分くらいだった…選定が不十分だとは思うけど…

>>241
そんな多いんだ…
まだ素人だからその規模扱った事ないけど、データ数が少ないと使い物にならないのかな

>>244
特徴量の選択に機械学習を使うのか…
やったことないし考えたこともなかった
ロジスティック回帰は確率的に予測するモデルだっけ
KNNにSBSとか全然知らないからもっと勉強しないと…

今更だけどレス遅くなってすいません
やっぱ知識的な勉強もしなきゃだし、もっとkaggleみたいなので色々経験踏んだ方が良いのかな…
0247デフォルトの名無しさん (アウウィフ FF19-jOsm)
垢版 |
2018/09/02(日) 16:13:35.40ID:fTJM2v21F
>>238
この図って下三角は無駄やね
0248デフォルトの名無しさん (ワッチョイ e3a5-jo4B)
垢版 |
2018/09/02(日) 18:09:35.27ID:Gf+N3VgJ0
特徴200の例1万で正解ラベル付き、それでなんらかの故障の原因を
少数の特徴から説明をする必要性があるなら
PCAかけてからSVMでいいんじゃね?
ラベルないなら、明らかに異常時の正解ラベルを少数でも集めてから
アノマリーディテクション

それ以外になにかやりようがあるような案件に思えない
0249デフォルトの名無しさん (ファミワイ FF29-zJks)
垢版 |
2018/09/02(日) 22:15:22.45ID:aecTCx63F
ランダムフォレストって入門書で機械学習の勉強をしたら一番最後に習うジャンルじゃないか
理論的にはかなり難しい分類に入るはずなんだけど、最初にやったんかい
入門的な範囲に関していえば、NNなんかよりよほど複雑だよな
0254デフォルトの名無しさん (ワッチョイ 0b8a-J7KC)
垢版 |
2018/09/03(月) 15:29:21.33ID:wK4QWbzI0
割り振られた仕事が酷いだけな気がするんだけど
不良品検知なら機械学習は有用だけど、トラブルの原因の特定とか厳し過ぎるだろ
俺が同じ仕事を課されても出来ない自信がある
まだ今後の仕事に繋がるスキルなら学ぶ気にもなるけど
一回限りの仕事でこれだったら職場を変えたくなるなw
0257デフォルトの名無しさん (ササクッテロレ Spf1-oMiI)
垢版 |
2018/09/03(月) 17:45:38.06ID:wkT01G1zp
>>254
トラブルの原因特定が目的として
機械学習を手段として用いるのは何故?
そう言う指示なのかな
0260デフォルトの名無しさん (ラクッペ MMd1-BaxO)
垢版 |
2018/09/05(水) 12:59:13.40ID:b1qw9eMxM
機械学習の勉強やめるわ
物体検出が目標だったけど難しそうだからやめる
0262デフォルトの名無しさん (ラクッペ MMd1-BaxO)
垢版 |
2018/09/05(水) 14:29:43.54ID:b1qw9eMxM
>>261
お前は物体検出できんの?
0273デフォルトの名無しさん (ラクッペ MM3b-b4n1)
垢版 |
2018/09/06(木) 12:48:10.39ID:ntAiYVJqM
ここの奴ってministの延長しかできないんでしょ
物体検出できる奴いないの?
0274デフォルトの名無しさん (ラクッペ MM3b-b4n1)
垢版 |
2018/09/06(木) 12:48:43.28ID:ntAiYVJqM
スペルミスったわwwwwwwwwwwwww
0276デフォルトの名無しさん (ラクッペ MM3b-b4n1)
垢版 |
2018/09/06(木) 12:56:40.60ID:ntAiYVJqM
>>275
一ヶ月俺がやってmnist理解したから数ヶ月じゃ無理じゃね?
0277デフォルトの名無しさん (ラクッペ MM3b-b4n1)
垢版 |
2018/09/06(木) 12:57:02.77ID:ntAiYVJqM
やっぱいけるかもな
効率よくやれば
0280デフォルトの名無しさん (ワッチョイ e36e-HcYj)
垢版 |
2018/09/06(木) 16:12:49.44ID:eIqRmgxb0
kaggleの一番の問題点は、計算資源は自前調達なこと
0284デフォルトの名無しさん (ガックシ 0656-QXdG)
垢版 |
2018/09/06(木) 18:33:14.28ID:oTJZiE1f6
初めまして失礼します
最近tensorflowにて機械学習を始めました。参考にしている下記サイトのソースコードを読んでいるのですが
http://docs.fabo.io/tensorflow/model_sequence/rnn_basic.html

このサンプルコード中のどの変数に最終的なテストデータの実行結果が格納されているのでしょうか?
親切に [0,1,2,0,・・・,0,1]のように格納されているのか、はたまた評価関数がsoftmaxなのでargmaxを使って取得するのか・・・分かる方ご教授いただけるとありがたいです。
0287デフォルトの名無しさん (ガックシ 0656-QXdG)
垢版 |
2018/09/06(木) 19:52:27.22ID:oTJZiE1f6
>>284 追記です
ソースコード中のtf.argmax(pred,1)に実行結果が格納されているのは分かったのですが、
これをどう取得すればいいのかがわかりません
print(pred)やprint(tf.argmax(pred,1))等をsess.close()(ソースコード内の最後の行)の前後に入れてみたりしましたが
Tensor("ArgMax_2:0", shape=(?,), dtype=int64)このような出力がされるだけでした
0288デフォルトの名無しさん (ガックシ 0656-QXdG)
垢版 |
2018/09/06(木) 19:53:40.60ID:oTJZiE1f6
>>285
書き込んでいるうちに返答が・・・argmaxの方じゃないのか・・・試してみます
0289デフォルトの名無しさん (ガックシ 0656-QXdG)
垢版 |
2018/09/06(木) 19:59:15.30ID:oTJZiE1f6
acc_test_は精度の%表示の方がでてきました。
取得したいのはモデル学習後にテストデータを通した際の出力結果で
文章が足りなかったみたいです、すみません
お分かりになればご教授ください
0296デフォルトの名無しさん (ワッチョイ 17c3-HcYj)
垢版 |
2018/09/07(金) 02:43:59.86ID:i5TKiFX30
mfccを特徴量にして深層学習をしようと思ったけどあまり学習しない・・・
たぶんmfccをそのまま使うと値の差が大きすぎるからだろうけどこういう場合の正規化って何が一般的なんだろう?
0299デフォルトの名無しさん (ワッチョイ 0b4b-ydPo)
垢版 |
2018/09/07(金) 23:54:38.38ID:AkwTHGBK0
コーセラ化粧品歌謡ベストテン
0300デフォルトの名無しさん (スプッッ Sdda-7Kzs)
垢版 |
2018/09/08(土) 12:29:52.26ID:zjq/iq32d
カーネル法はカーネル法の項目で分けるべきだと思うんだけどな
応用先はサポートベクトルマシンだけでない。
主成分分析、巡回セールスマン問題など多種多様
0306デフォルトの名無しさん (ワッチョイ 0b4b-ydPo)
垢版 |
2018/09/09(日) 10:04:24.64ID:13i/0Tbj0
numrubyとかまだですか?
0308デフォルトの名無しさん (スプッッ Sd7a-iA6g)
垢版 |
2018/09/09(日) 11:37:36.75ID:vA+7RJ4hd
AIってなんで言語の意味が理解出来ないの?
0309デフォルトの名無しさん (ワイーワ2 FFb2-x/oF)
垢版 |
2018/09/09(日) 11:40:09.66ID:kzlGF2pOF
言語に意味が無いからかも知れないね
0312デフォルトの名無しさん (アウアウウー Sa77-X0d4)
垢版 |
2018/09/09(日) 15:07:04.37ID:mmYNGw0Ja
courseraの2週目まで来てやっとプログラミング課題始めたけどこれ英語ダメダメな人には結構無駄に時間かかりそうだな
自分はある程度読めるからいいけど英語アレルギーの人には15ページの英文テキストとかハードル高すぎだろう
0315デフォルトの名無しさん (ワッチョイ 8723-x/oF)
垢版 |
2018/09/09(日) 17:10:44.73ID:5zyWb3dg0
チラシは日記の裏に
0318デフォルトの名無しさん (ワッチョイ 8b80-f65Y)
垢版 |
2018/09/09(日) 17:44:28.00ID:V1LakR3i0
まず自身が学習する知能すらないヤツラが
機械学習とかいってるのがな
0320デフォルトの名無しさん (ワッチョイ 8b80-f65Y)
垢版 |
2018/09/09(日) 17:55:20.90ID:V1LakR3i0
機械学習という強化学習は体罰と同じだからな
つまり体罰は科学的に正しい
0321デフォルトの名無しさん (ワッチョイ 8b80-f65Y)
垢版 |
2018/09/09(日) 17:58:41.37ID:V1LakR3i0
マウスはサッカリンが大好き

エサ箱にサッカリンおくと
マウスはひたすらサッカリンをなめる

そんなマウスに
サッカリンなめると高圧電流を与える
それを繰り返す

するとな
マウスはサッカリンなめなくなる

しばっきんぐを伴う学習は
ものすごく適切な科学的教育メソッドといえる
0322デフォルトの名無しさん (アウアウウー Sa77-fYFo)
垢版 |
2018/09/09(日) 18:04:27.61ID:xD81Fsxha
それは単純作業をひたすら行うだけのための教育には最適だろうが自分で考える高度な仕事をできるようになるための教育としては全く機能しない
餌食べると電流来るから餌食べない、ではなく電流を止めるかそんな実験してる者を殴りに行くことが本当は求められる
0323デフォルトの名無しさん (ワッチョイ aee8-ydPo)
垢版 |
2018/09/09(日) 18:05:59.59ID:XkNFsZ520
>>320
本当に教育目的ならね
でも実際は自分の言うことを聞かないなどの感情任せで叩いたり
現実の教師には幼稚な人間が多いから体罰を許可するのは難しい
AIによる教育が普及したら体罰の導入もあるかもねw
0324デフォルトの名無しさん (ワッチョイ 8b80-f65Y)
垢版 |
2018/09/09(日) 18:19:48.08ID:V1LakR3i0
人間も刺激を受けて
微弱な電流の電気信号を脳に伝えて(コレが入力)
NNにちかいものを脳みそで構成しながら(コレが処理)
反応してるだけなのは(コレが出力)
ほぼ間違いないからな

キミラはその中でもかなりできそこないの肉塊なワケ
キミラはまずその自覚がないといけない
0325デフォルトの名無しさん (ワッチョイ ae67-bLrU)
垢版 |
2018/09/10(月) 09:12:54.23ID:Wzurv1WZ0
何かに例える奴って本質の部分をずらして解釈させようとするから好きじゃない。
0331デフォルトの名無しさん (JP 0Haf-A9RE)
垢版 |
2018/09/10(月) 12:57:17.68ID:9PCR6mO1H
いい場合もある
0332デフォルトの名無しさん (ササクッテロル Spab-r7Fj)
垢版 |
2018/09/10(月) 14:59:32.62ID:/bmRPvCfp
>>324
化学物質とか細胞とかも関係している
どの程度の影響かは知らないけど
0333デフォルトの名無しさん (ワッチョイ 16e7-8LvS)
垢版 |
2018/09/10(月) 16:07:18.13ID:vhv/YhfM0
海外IT大手勤めかPFNか東大松尾研関連の人のTwitterやスライドは参考になる
あとarxivで論文読んでレビューしてる人達(一次)も参考になる
それに海外にさきがけて論文内容を実装してる人とそのgithub
QiitaでCNN,RNN,LSTM,GANなどのモデルの基礎を詳細に解説してる記事は初心者〜中級者には参考になる

でも日本の情報は大体ここまでだね
日本で画期的なモデル作り出してsota達成してる人なんていないし
業務応用の事例は基本的に社外秘だから表に出てこない
0339デフォルトの名無しさん (ワッチョイ 8b80-f65Y)
垢版 |
2018/09/10(月) 20:46:12.02ID:XzQQxj6r0
低学歴知恵遅れは
NNモデルは半世紀以上前からあるモデルの焼き直しなのすらわかってないからな

低学歴知恵遅れに限って基礎も分からずにムダにいきってるワケ
0340デフォルトの名無しさん (ワッチョイ 8b80-f65Y)
垢版 |
2018/09/10(月) 20:48:45.69ID:XzQQxj6r0
NNモデルなんかウンコみたいなエキスパートシステムがはやってた頃からすでに存在する
コレもきっとな同じ道を歩むことになる
予言するわ
0342デフォルトの名無しさん (ワッチョイ 8b80-f65Y)
垢版 |
2018/09/10(月) 21:02:22.48ID:XzQQxj6r0
エキスパートシステムみたいな山盛りのウンコができると
予言してるワケ
0343デフォルトの名無しさん (ブーイモ MM97-QmBv)
垢版 |
2018/09/10(月) 21:08:06.77ID:PkSNOikBM
20年前エキスパートシステムやってた大学の先生がAIメチャメチャdisってたな。講義で学生相手に悲観的なことばっか言ってな。今どうしてんだろ。ヒャッハー?
0349デフォルトの名無しさん (ワッチョイ ae67-bLrU)
垢版 |
2018/09/11(火) 08:52:46.82ID:iNoPJA0t0
もう少しきれいな言葉で語りませんか?
0357デフォルトの名無しさん (ワッチョイ 13b3-rySY)
垢版 |
2018/09/11(火) 18:00:10.08ID:yZhXOY2F0
クラス分類できへんねやったら回帰分析しかないんですか?
0358デフォルトの名無しさん (ワッチョイ 8b80-f65Y)
垢版 |
2018/09/11(火) 23:32:24.35ID:i7axZbyN0
1層のNNは回帰分析と同じだからな
0360デフォルトの名無しさん (ササクッテロレ Spab-r7Fj)
垢版 |
2018/09/12(水) 08:09:25.15ID:ViqDYntmp
>>359
そう思うなら一つのロジスティック回帰を再帰的に使って同じ結果を出せるか実験してみたらいいのでは?
0363デフォルトの名無しさん (アウーイモ MM77-rIyb)
垢版 |
2018/09/12(水) 16:05:15.80ID:qQh33xQPM
クラス外のデータの排除に効率的な方法は何ですか?
例えば、0〜9の数字10クラスのネットワークに「b」の文字を入力する場合を考えた時に
理想的には全クラス10%くらいの確率ラベルを持ってくれたらいいのですが
恐らく結果は6が高確率で帰ってくる気がします。
適当に数字以外の文字を詰め込んで11個目のunknownクラスを作ることは効果があるのですか?
0364デフォルトの名無しさん (ワッチョイ ae8a-Y6TH)
垢版 |
2018/09/12(水) 19:36:37.61ID:YQnfCYrX0
>>363
こっちが専門じゃないだけかもしれないけど、おそろしく何を言ってるのか分からない
deep learningのような分類器で、画像データを10のクラスに仕分けたいけど、
特定のクラスに偏りが生まれるからどうすれば良いかということか

一般論として、deep learningならば、ノイズを混ぜるのは場合によりけりだけど有効だろ
新しいクラスを作るのは、ちょっとわからんなあ
0365デフォルトの名無しさん (ワッチョイ ae8a-Y6TH)
垢版 |
2018/09/12(水) 19:40:44.82ID:YQnfCYrX0
データを多く仕分けられるクラスに、データが仕分けられにくくなるように
損失関数に、データ量に比例して増えるペナルティーを追加すればいいんじゃないか
0366デフォルトの名無しさん (ワッチョイ ae8a-Y6TH)
垢版 |
2018/09/12(水) 19:47:03.20ID:YQnfCYrX0
一回限りの分析なら、手入力で特定のクラスの損失関数に
手入力でペナルティーを追加して、そのクラスに分類されにくくするのも手だと思うんですよ?
そんなやり方でも、いちおう分析結果は平らにはなるよね。たぶん。わからんけど
0367デフォルトの名無しさん (アウーイモ MM77-rIyb)
垢版 |
2018/09/12(水) 19:54:51.80ID:qQh33xQPM
>>364
(自分なりに)もう少し分かりやすく書き下しますと、

この世のありとあらゆる果物が成ってる木があるとして、
この木の画像の中から、リンゴとミカンとブドウを見つけて自動収穫したいタスクがあるとします。
リンゴとミカンとブドウの画像を学習させて分類器を作ったのですが、青リンゴやデコポンやマスカットが学習させた果物と誤認識されて収穫されてしまいます。
学習せた3つの果物以外は収穫したくないので、認識して欲しくないのですがどうすれば良いですか?ということです。
(分かりにくかったらすみません。)
0371デフォルトの名無しさん (アウアウウー Sa77-fYFo)
垢版 |
2018/09/12(水) 20:50:09.10ID:kc7HFSnfa
数字以外の想定し得るあらゆる文字のデータを学習させる必要があるから非現実的だろうね
数字にだけ共通する特徴があるなら最初に数字か数字でないかだけの分類をすればいいけどそんな特徴ないだろうし難しい
0372デフォルトの名無しさん (ワッチョイ 8b80-f65Y)
垢版 |
2018/09/12(水) 21:07:10.31ID:yfKtIfo20
認知機能が低いこのスレいるような低学歴知恵遅れが写真をみると
コレは心霊写真だという

コレは俗に言うシミュラクラ現象になる

ウンコAIに顔認識をさせると
コレと同じような現象が発生してもなにもおかしくない

コレは出力結果としてものすごいおかしいとはいえない
特徴どおりだからな
0373デフォルトの名無しさん (ワッチョイ 8b80-f65Y)
垢版 |
2018/09/12(水) 21:13:35.69ID:yfKtIfo20
文字だけの識別なら数量化I類で十分
数量化I類でもかなりの精度になる
0374デフォルトの名無しさん (マクド FF73-Y6TH)
垢版 |
2018/09/12(水) 23:04:27.74ID:agseH4x1F
ひとつの分類器でふたつのことを同時にやらなければいいんじゃね?

@一個の数字画像を、10個のクラスに仕分ける
Aその画像が本当に仕分けられた数字と同じか否かを判定する

このふたつの段階に分けれて、別々の分類器を用意すれば、そんなに難しいことしなくても簡単に組めそう。
@のためのニュートラルネットワークの分類値と、Aのためのクラスごとの分類器を10個用意する必要があるけど、
Aの分類器はたぶん同じようなアルゴリズムで動くから書くの簡単だろ

ただの思いつきだけど、どうだ?
0375デフォルトの名無しさん (ワッチョイ 8b80-f65Y)
垢版 |
2018/09/12(水) 23:12:15.60ID:yfKtIfo20
ぜんぜんわかってないわ
特徴抽出をするのが先だからな

特徴抽出されたデータを学習させない限り
いつまでたっても学習効果なんかない
0376デフォルトの名無しさん (アウアウエー Saf2-r7Fj)
垢版 |
2018/09/12(水) 23:42:58.48ID:MXOsLPIga
>>363
まず数字かそれ以外かを分類してみるとか
で数字のものについて0-9のどのクラスに属するか判別する
0379363 (アウーイモ MM1b-P3CU)
垢版 |
2018/09/13(木) 02:39:06.40ID:r4+4vjzBM
>>369
これがほぼ正解に近いですが、>>371にある通りやはり難しいのですかね。

>>376
数字は例えだったので・・
より実際に近い例えですと、一般物体を「犬、桜、車」の3クラスで認識し、
猫や梅や船のような他の物体なら、3クラスのどれでもないと返して欲しい、というような感じです。
未知の入力の中から、学習させた特定の対象だけを認識することは難しいのでしょうか・・
未知の入力パターンをリジェクトしてくれるような仕組みがないものかなぁと思い質問しました。
0381デフォルトの名無しさん (ササクッテロラ Sp8b-HwcP)
垢版 |
2018/09/13(木) 08:04:53.73ID:iq9KCUrTp
>>379
それも対象となる幾つかとそれ以外に分類してみたらいいのでは?

それか6とbを判別するような判別を後からかけるとか

人間の感覚だと6とbの判別は上側のコーナーの位置と左側の上の交点の位置関係を見ているように思う

それを入力に追加するか学習で獲得させるか
0382デフォルトの名無しさん (ササクッテロラ Sp8b-HwcP)
垢版 |
2018/09/13(木) 08:07:38.47ID:iq9KCUrTp
>>377
それは教師信号とか学習方法とかでも違う結果になるんじゃないの?
厳しすぎて6を検出しなくなるかもしれないけど
それはそれで後から判別する用途に使えるかも知れない
0383デフォルトの名無しさん (ササクッテロラ Sp8b-HwcP)
垢版 |
2018/09/13(木) 08:10:20.78ID:iq9KCUrTp
>>361
一つとカウントするものの認識が違うようだ
ロジスティック回帰を特徴づけるパラメータを引数とする関数を一つと表現している
その関数を再起的に使うことを想定している
0384デフォルトの名無しさん (ワッチョイ 9fe7-fFDB)
垢版 |
2018/09/13(木) 08:52:40.16ID:7kEehjxd0
>>379
犬とそれ以外の2値分類器、桜とそれ以外の2値分類器、車とそれ以外の2値分類器を作って、1番スコアが高いものを答えとする。もし3つのスコア全てが一定の閾値以下であれば該当なしとする。うまくやれば1つのNNでできるかな?
0386デフォルトの名無しさん (アウーイモ MM1b-P3CU)
垢版 |
2018/09/13(木) 11:25:57.39ID:u4Gmb1plM
>>381
初めから6とbが似ているという情報があればそれでもいいのですが・・
どんなものが(特徴量レベルで)6に似ているか分からない時にどうしたらいいでしょうか。
上の例だと、例えばアマゾンの奥地に私達が名前も知らないような犬に似た動物(人が見たら似ているけど犬ではないときちんと判別はできる)がいたとして、それがたまたま入力された時にちゃんとリジェクト出来ればと思うのですが。

>>384
2値分類器にすれば学習データ以外に対するリジェクト率は高くなるのですか?
少し検討してみます。

>>385
はい、もちろんそのつもりではあります。
ただ、あわよくばその他クラスの入力として有効だと知られているデータセットとかないかなと思いまして。
もっと確立された方法があるかと思ったのですが、
意外とあまり一般的な話ではないのかも知れないですね。
0389デフォルトの名無しさん (ササクッテロレ Sp8b-HwcP)
垢版 |
2018/09/13(木) 13:46:19.92ID:qufj2uAPp
>>386
犬に似た動物か犬かは人間も見た目だけでは判別できないのでは?
DNAとかをみて分類するのであればそれを入力として判別するように学習するんだと思う

あくまでも既知の物に近い物の中でどれに近いかを判別するのだと思う

人間も例えば人の名前を聞いた時に
自分が知っている人の中から思い浮かべるはず

名前の文字列から同姓同名の知らない人かどうかは判別できない
0390デフォルトの名無しさん (ササクッテロレ Sp8b-HwcP)
垢版 |
2018/09/13(木) 13:52:05.24ID:qufj2uAPp
つまり似ているけど違うものを正しく判別出来ないときは
判別手法が適切でない可能性だけでなく
入力情報が不足している可能性も考える必要がある

当たり前のことだけど

逆に判別手法は同じでも入力情報を変える事で目的を達成できるかもしれない
0391デフォルトの名無しさん (ワッチョイ d7f8-xwwK)
垢版 |
2018/09/13(木) 13:52:25.76ID:xLrClwyc0
まず大前提として、バイアスが高いとかでなけりゃ
データ数が機械学習のすべて
DNNなら基本的にバイアスが高い状態は無視できるんだから
人が見て判別できる特徴を学習できるほどデータが足りないから誤判別するんだよ
そのデータ数を補い学習を促進させるのがGAN

アウーイモ MM1b-P3CUの問いに対する今最も適当な答えは、GANを組み込めって事だ

もう組み込んでるなら、CNNの前にattentionをぶっ込んで
attention順のtimestepやpositionを特徴に付加した上でCNNで畳み込むモデルを作ったりしろ
ここは先端研究分野だから論文読んで勉強して自分で試せとしか言えない
0392デフォルトの名無しさん (ブーイモ MMbb-fFDB)
垢版 |
2018/09/13(木) 13:56:03.92ID:RXUDxgvEM
>>386
もしかして、教師あり機械学習において、訓練データとして正例だけで(負例は与えずに)判定器を作れるか、という話なのかな?

もしそうであるなら、教師あり学習では出来ないと思うけど。
0393デフォルトの名無しさん (ササクッテロレ Sp8b-HwcP)
垢版 |
2018/09/13(木) 14:02:20.97ID:qufj2uAPp
6とbの例だと
数字を入力する欄に書かれている場合は6の可能性が高い
前後が数字だったらとか文脈情報を付加する事で
正解率を上げることはできると思う

人間も無意識に探索空間を限定していると思うよ
6はアラビア数字空間で見たら6だけど
ローマ数字空間でみたら該当なしが正解
0394デフォルトの名無しさん (ブーイモ MMbb-fFDB)
垢版 |
2018/09/13(木) 14:10:38.03ID:RXUDxgvEM
>>386
で、もし負例を集めるのが大変だという事であれば、学習済みの重みを使って転移学習できるかどうかを検討してみたらどうかな?画像系や言語系なら色々あると思うけど。
0401デフォルトの名無しさん (ワイーワ2 FFdf-rUn3)
垢版 |
2018/09/13(木) 19:03:22.94ID:l9KSlvFSF
>>398
書こうと思って思い留まった
0409デフォルトの名無しさん (ササクッテロレ Sp8b-47pW)
垢版 |
2018/09/14(金) 10:52:49.98ID:6Ydm1GfUp
参考書見ながら勉強してて、教師あり学習はなんとなくイメージ湧くんだけど教師なし学習の部分に入ってから急に難しくて理解しにくい…
主成分分析とか特にややこしいんだけどこういう技術はやっぱり頻繁に使われるのかな?
0410デフォルトの名無しさん (ワッチョイ ff81-WjPf)
垢版 |
2018/09/14(金) 10:59:03.56ID:36F6j8Uf0
やっぱり頻繁に使われる
0413デフォルトの名無しさん (ワッチョイ d7f8-xwwK)
垢版 |
2018/09/14(金) 14:37:37.68ID:tCA/H0VE0
PCAはできなきゃ可視化できねーから必須だろう
0415デフォルトの名無しさん (ワッチョイ 77a5-47pW)
垢版 |
2018/09/14(金) 22:05:30.13ID:exBB8l6d0
低学歴超初心者のゴミの俺が機械学習の勉強して5ヶ月
今更だけど統計の知識って避けて通れない気がしてきた
ここの人達はそういう知識も持ってるのかな…
機械学習でいっぱいいっぱいだけどやれるか俺…
0418デフォルトの名無しさん (ワッチョイ 9780-9b2l)
垢版 |
2018/09/14(金) 23:16:28.78ID:fXySkelb0
機械学習でビッグデータを扱うなら
最低でも正方行列でない行列を扱う対応分析や
疎な行列を計算機で扱うための知識が必要
0422デフォルトの名無しさん (ササクッテロレ Sp8b-47pW)
垢版 |
2018/09/15(土) 00:34:19.96ID:ls8ZnII1p
>>409 です
PCAを使うのはあくまで可視化がメインなの?
特徴量抽出とかも書いてあってこんがらがってる
例えば20個の特徴量がある100点のデータがあって、それを2次元にしたい場合20個の特徴量からなる各データ(100点)から分散が大きい線?保持する
ってイメージなんだけど、2次元にした時点で色んなデータが削ぎ落とされて、20個の特徴量をぜんぶ引っくるめたデータの主成分だけが残って素の特徴量の概念は消えてると思うんだけどそこから特徴量を抽出って????ってなってる
日本語おかしくてごめん
自分の理解が完全に間違ってたり的外れな事言ってるのは十分理解してます…
0424デフォルトの名無しさん (ワッチョイ 57eb-+ow7)
垢版 |
2018/09/15(土) 01:49:47.53ID:81XKWb5c0
情報系の学科でプログラムはそこそこ勉強してて
機械学習ライブラリを全く使ったことないんですがちょっと勉強したくて
機械学習入門ライブラリって何がおすすめですか

うまくいくかどうかは別にして
株とかFSみたいな時系列グラフの予測したり
将棋や囲碁みたいなゲームAIを作ってみたいです
0431デフォルトの名無しさん (ワッチョイ 57eb-+ow7)
垢版 |
2018/09/15(土) 12:42:28.61ID:81XKWb5c0
たとえば時系列データの配列があったとして
なんてライブラリにどういう設定で実行すればいいかっていうのがわからない

どういうことをやるかっていうアルゴリズムの概論説明ばかりで
プログライミングの入門サイトみたいなのがあんまりなくて
何をインストールしてどうかけばいいかのプログラムサンプルを出してくれるサイトがあんまり見つからない
0433デフォルトの名無しさん (ワッチョイ bf67-pekm)
垢版 |
2018/09/15(土) 13:20:09.75ID:tpcXcC8D0
>>431
分類ならIrisとかベンチマークで使われるデータセットがあるので具体的な使い方も分かると思う。
君のやりたい事が何のアルゴリズムで実現できるかは、自分で概論一通り勉強しないと決まらないと思うのよね。
0434デフォルトの名無しさん (ワッチョイ 57eb-+ow7)
垢版 |
2018/09/15(土) 14:02:42.28ID:81XKWb5c0
>>433
ありがとうございます

irisていうの使ってみます

機械学習って行列から結果ベクトルを生成する関数をつくるもので
教師データとして入力出力ペアを与えたらそれに近い答えを出す関数が作られて
未知のデータを流し込んでもそれなりに答えが出るみたいなイメージだったから
ライブラリでやることってたいした違いはないのかと思ってた
0435CRFs (ワッチョイ 9780-9b2l)
垢版 |
2018/09/15(土) 15:42:38.45ID:KIanXBkQ0
TensorFlow使ったほうがいい
くさるほどサンプルがある
0436デフォルトの名無しさん (ワッチョイ 9780-9b2l)
垢版 |
2018/09/15(土) 15:47:56.06ID:KIanXBkQ0
CRFもTensorFlow使えばきっと余裕でできるハズ
0437デフォルトの名無しさん (ワッチョイ 57eb-+ow7)
垢版 |
2018/09/15(土) 16:08:00.97ID:81XKWb5c0
>>433
Iris 機械学習 で検索してブログ2,3よんでみたけど
これってあやめの画像を認識するだけにしか使えないの?

画像認識はいまのとこ興味なくて

時系列データ予測(株とかよりはシーズン途中でのペナントレースの優勝予測とか)
ゲームAIとか
ツイッター上で知識獲得や自動応答
とかそのへんをやってみたいんだけど

>>435,436
TensorFlowはきいたことあるかも
次はそれ調べてみます
ありがとうございます
0438デフォルトの名無しさん (ワッチョイ 9ffe-Crbm)
垢版 |
2018/09/15(土) 16:10:06.41ID:+gRFgMvM0
自由度、将来性、普及率考えればtensorflow一択
日本語資料多めで取っつきやすいのはchainer
とりあえず動かしてみたいkeras
最近の論文の実装例多めでやや将来性ありpytorch
0442デフォルトの名無しさん (アウアウエー Sadf-HwcP)
垢版 |
2018/09/15(土) 16:57:36.10ID:VTJ0VoCAa
>>441
計算は確定的に同じ結果を得られるけど?
0444デフォルトの名無しさん (アウアウエー Sadf-HwcP)
垢版 |
2018/09/15(土) 17:10:33.80ID:VTJ0VoCAa
>>443
既存のクラスとかライブラリを一切使わないってこと?

コレクションとか配列とかもいちいち自分で管理するの?
もし仮にそうだとしたらそれを扱うような機能や関数を自分で作ってそれを利用するけどね

そこら辺は既存のライブラリ使っても結果への影響はほとんど変わらない
0445デフォルトの名無しさん (ワッチョイ 9780-9b2l)
垢版 |
2018/09/15(土) 17:12:19.17ID:KIanXBkQ0
あいかわらず頭悪いは
モデルというのはドカタが使うモデルの話じゃないからな
0446デフォルトの名無しさん (ワッチョイ 9780-9b2l)
垢版 |
2018/09/15(土) 17:13:35.25ID:KIanXBkQ0
ココが低学歴知恵遅れの限界
うんよくわかる
0447デフォルトの名無しさん (アウアウエー Sadf-HwcP)
垢版 |
2018/09/15(土) 17:16:25.26ID:VTJ0VoCAa
>>445
既存のAPIってなんのことを言ってる?
従来のプログラムがその既存のAPIを使うだけで完成するっていう認識は正しいの?
0450デフォルトの名無しさん (アウアウエー Sadf-HwcP)
垢版 |
2018/09/15(土) 17:27:07.77ID:VTJ0VoCAa
試行錯誤が必要って意味なら
そんなの当たり前の事じゃね

テレビのシステムとか
携帯電話の通信システムとか作るのに
試行錯誤が必要なかったとでも?

自動車や飛行機でも同様
0451デフォルトの名無しさん (ワッチョイ 9780-9b2l)
垢版 |
2018/09/15(土) 17:30:38.30ID:KIanXBkQ0
数理モデルの話だからな

コーディングの話なんかココでは一切関係ない

まずやりたいことを
まずどういった数理モデルで実現するかという話になる

数理モデルでの実現方法をきめたら
次は、なにもわかってない低学歴底辺ドカタどもが作業するときに
どういった実装モデルにすれば一番コストを抑えることができるか
という話だからな

ぜんぜんかみあってないワケ

わかった?
0452デフォルトの名無しさん (ワッチョイ 9780-9b2l)
垢版 |
2018/09/15(土) 17:37:18.38ID:KIanXBkQ0
で、TensorFlowはその数理モデルを
組み立てるためのライブラリが充実している

当然、数理モデルがわかってないと
そんなライブラリは使いこなすことはできない
0453デフォルトの名無しさん (アウアウエー Sadf-HwcP)
垢版 |
2018/09/15(土) 17:45:46.95ID:VTJ0VoCAa
>>451

数理モデルの所が物理モデルだったりするけど
やってることは同じようなものだ

それは普通に行われて来たこと
0454デフォルトの名無しさん (アウアウエー Sadf-HwcP)
垢版 |
2018/09/15(土) 17:52:05.55ID:VTJ0VoCAa
>>451
で結局何を言いたいかって事だけど
期待した結果を得られなくて大変だ
と言いたいの?

まぁガンバレ
0455デフォルトの名無しさん (ワッチョイ 9780-9b2l)
垢版 |
2018/09/15(土) 17:53:12.18ID:KIanXBkQ0
物理はちゃんと現在もっとも有力な仮説があるからな
その仮説にあてこむだけですむ

検証可能で検証可されてるサイエンスの成果をそのままテクノロジーに反映する土台ができあがってる
そういった成果は、バカでもチョンでも利用することができる

AIにはそういうもんがない
形而上学の世界だからな

低学歴知恵遅れにはこの意味がわかることはないと思うわ
車程度ならニュートン力学で十分だしな
0456デフォルトの名無しさん (アウアウエー Sadf-HwcP)
垢版 |
2018/09/15(土) 18:01:04.76ID:RyZhDvOSa
>>455
それが実現できないことに対する言分かな

他の組織で実現できたら
その時はどんな言分を考えるのかな

まぁ大変だろうけどガンバレ
0458デフォルトの名無しさん (ワッチョイ 9780-9b2l)
垢版 |
2018/09/15(土) 18:04:21.99ID:KIanXBkQ0
このスレの低学歴知恵遅れたちは
まず数学は文系であることを理解することが先
0459デフォルトの名無しさん (ワッチョイ 37c3-okpm)
垢版 |
2018/09/15(土) 18:28:11.11ID:aDVtzTM20
数学、プログラミングは論理学なのか?
少なくとも数学はそうかもね。プログラミングはハードの知識も必要だから工学の要素があるけど
0460デフォルトの名無しさん (ワイーワ2 FFdf-cC+K)
垢版 |
2018/09/15(土) 18:35:36.27ID:AVfR6YnTF
スレチ
0463デフォルトの名無しさん (ワッチョイ 57eb-+ow7)
垢版 |
2018/09/15(土) 21:41:23.44ID:81XKWb5c0
捨て台詞のつもりはないんですが…
自分のレスがきっかけでスレの流れがよくなかったのでやめたほうがいいのかなと思って
なんかすごく感じ悪く受け取られちゃってますね
ほんとに申し訳ないです

TensorFlowを教えてもらったので使い方ぐらいは自分で調べてみます
ほんとは使ってる人にききながらやったほうが絶対早いと思うんですが…
0473デフォルトの名無しさん (ブーイモ MMbf-hiXp)
垢版 |
2018/09/16(日) 14:08:29.73ID:Xvs/hqWSM
その教えて君を追い払う役目の自称高学歴有識者のお前らのコメントも、いかにもブラックボックスから出た答えを鵜呑みにしてそうな抽象的なものばかり。
類は友を呼ぶ。
0480デフォルトの名無しさん (ワッチョイ ff8a-mEkm)
垢版 |
2018/09/18(火) 20:40:14.73ID:k7v+ymOu0
ubuntuにjupyterをインストールしようとしたけど、これもう無理だな
英語コミュニティでも、ちゃんとは内容を理解できないけど、みんなで無理だのなんだの言ってる感じ
pythonのパッケージを管理するためだけに
linuxについてをここ二週間ずっと勉強してきたのに初手でつまずいてしまった
0481デフォルトの名無しさん (ワッチョイ ff8a-mEkm)
垢版 |
2018/09/18(火) 20:42:18.85ID:k7v+ymOu0
あっ、condaを使ってしまえば話は別ね
0482デフォルトの名無しさん (ワッチョイ 37c3-okpm)
垢版 |
2018/09/18(火) 20:49:20.88ID:S3XkALSh0
どういうこと?Jupyter Notebookがブラウザで立ち上がるだけじゃダメなの?
0483デフォルトの名無しさん (ワッチョイ 579b-lJg0)
垢版 |
2018/09/18(火) 20:52:03.60ID:Jydth2ea0
時系列解析の自己回帰(AR)モデルについて教えてください
「AR(1) = Rt = μ + Φ1Rt-1 + εt」という式で
次数1の時「Rt: 今回の値」は「Rt-1: 1つ前の値」から推定される
という式ですが、この「1つ前の値」は実測値ですか?
それとも「Rt-2」を使って算出された予測値を説明変数と
するのでしょうか?
前者が正しいなら1つ前の実測値がないと予測できない事になりますが、
後者が正しいなら何時点か前の初期値1つだけで何時点も後の
値を予測可能だと思うんですが、どちらでしょうか?
0484デフォルトの名無しさん (ブーイモ MM9b-e9IP)
垢版 |
2018/09/18(火) 21:40:22.66ID:5LJPbrObM
>>487
何を分析するかに依るけど
一般的には実測値だと思う
0485デフォルトの名無しさん (ワッチョイ 579b-lJg0)
垢版 |
2018/09/18(火) 21:54:26.20ID:Jydth2ea0
>>484
ありがとう。株価だよ。
すげえ悩んでたから助かったよ。
0486デフォルトの名無しさん (ワッチョイ 579b-lJg0)
垢版 |
2018/09/18(火) 21:56:59.45ID:Jydth2ea0
>>484
ごめん、正確には収益率。
0487デフォルトの名無しさん (ワッチョイ 9776-/EHZ)
垢版 |
2018/09/18(火) 21:58:14.97ID:3M7OTvKW0
>>482
せっかくのLINUX環境なのに、CLIで起動できない実行環境なんて悲しすぎる

なんて思ったけど、jupyterlabなら簡単にインストールできた
コレ、次世代すぎて使いこなせる気がしないけど
今ぱっと動かした感じだとpycharmの更に上を行くほど更に凄いな
てか今年の春にjupyter notebookの使用方法をマスターしたのに
もう上位互換が出るのかよ。やってらんねーよ
0489デフォルトの名無しさん (ワッチョイ 9f20-xwwK)
垢版 |
2018/09/19(水) 00:03:09.71ID:qfGEDKPk0
単純なデイトレゲームと仮定した場合

株:できる、しかし実際には法律でアウトになるのでできない
見せ板を多用した相場誘導や短時間での注文&キャンセル処理でAPIに負荷かけた時点で
法律的にアウト

仮想通貨:できる
株ではできない見せ板を多用した相場誘導が基本的に無制限で法律で取り締まられてもいない
取引所に負荷かけすぎて怒られたりBANされることは多々あり
具体的には、板を出しているのが人間かそうでないかを見分けることで
肉入りから証拠金を巻き上げるような動きが可能になる

長期的嫌気判断として見た場合

株:できる
実際に行われているのは上場企業の役員のTwitterチェックなど
マイナスやトラブルを引き起こすような発言があったとシステムが判断した場合
(要するに異常検知の一種で炎上を検知している)
AIによって一斉に売られたりする
よくマイナス異常検知のターゲットになってるのはイーロン・マスクと関連企業
マイナスの異常でなくプラスの異常検知でも同じ
ニュースに対する反応なども見る

仮想通貨:できる
しかも風説の流布の取り締まりなどが行われていない為やりたい放題できる
大手仮想通貨メディアを裏で操る人々は、この手の手法で荒稼ぎしているだろう
直近で言えば、ゴールドマン・サックスの仮想通貨トレードデスク開設中止報道etc...


まぁちょっと勉強すれば誰でも思いつくよな
仮想通貨はこんな各国の法整備状況で、ビットコインETF承認なんてされたらある意味祭り
0490デフォルトの名無しさん (ワッチョイ ff81-WjPf)
垢版 |
2018/09/19(水) 00:12:36.78ID:2H97zkt+0
取引方法がはじめからわかってたら、高速なシステムトレードやるだけだろ。
株価じたいではなく、ニュースからデータ仕入れて、何に反応するかの部分のAI化ってことか。
0492デフォルトの名無しさん (アウアウエー Sadf-HwcP)
垢版 |
2018/09/19(水) 08:01:29.20ID:K7UZA9LYa
予想の値を出すことは可能
だけどそれで目標の利益を得られるかは別じゃね?
一度上手く利益を得られたとしても
トータルでは違う結果になるかもしれない
0496デフォルトの名無しさん (ワッチョイ 9f20-xwwK)
垢版 |
2018/09/19(水) 12:56:40.73ID:qfGEDKPk0
荒れるっていうか実際やってる人達が他のやつもみんなやりだすと稼げないからな
仮想通貨のデイトレゲーは大資本ないと厳しい(ただし、手数料フリーの取引所は例外)
深層異常検知の自動取引なんてすごいお手軽にリスクを最小化できる

まぁこの程度はネタバレにすらならん
大手はみんなやってることだろ
0499デフォルトの名無しさん (ササクッテロ Sp8b-47pW)
垢版 |
2018/09/19(水) 14:27:41.75ID:cOJ83uNip
今日休みだから勉強してたけど5時間で参考書4ページくらいしか進んでない…
時間かけたからって理解したわけじゃないし…
ビニングとか交互作用とか多項式とか概要はまだしもなんでこれをやる必要があるのか全然分からん
0501デフォルトの名無しさん (ワッチョイ bf1e-+ow7)
垢版 |
2018/09/19(水) 18:05:00.19ID:vTJ3S9KO0
>>489
でも野村證券とか大手はAPIに負荷かけまくりじゃん?
おかしいよね?

見せ板も出しまくりだよね?
0502デフォルトの名無しさん (ワッチョイ ff8a-mEkm)
垢版 |
2018/09/19(水) 18:32:49.69ID:rc2jjf3P0
JUPYTERLAB、まじで統合開発環境になっていやがるな
機能が一気に増えたけど、余計なことまで出来るようになるのは吉か凶か

DSモドキ、機械学習エンジニア(笑)たちの御用達ツールって感じじゃなくなったな
本当にIDEだ。pythonを使って、チームで本格的な開発を行う人たちの強力なプラットホームだわ
0504デフォルトの名無しさん (ササクッテロ Sp8b-47pW)
垢版 |
2018/09/19(水) 19:48:23.18ID:cOJ83uNip
>>500
一冊終えるのに何ヶ月もかかるわ
だからって完全に理解してるわけじゃないし時間かかった分どんどん忘れていくし…
実際コード書きながらやるんだけど参考書の説明が分からないと先に進めず考えこむんだけど分からなくても先にとりあえず進んだ方が良いのかなぁ
0506デフォルトの名無しさん (ワッチョイ 7f5a-NMPr)
垢版 |
2018/09/19(水) 21:33:48.11ID:kwGXfZ/C0
>>495
実物見りゃすぐ分かるよ
0507デフォルトの名無しさん (ワッチョイ 9776-mEkm)
垢版 |
2018/09/19(水) 21:40:24.46ID:GiAtsVA80
>>504
いちいち立ち止まって考えるのも、無理やり先に進むのも、どっちも正解だろ
どういうやり方をしてもすぐに忘れるんだから
ただ、表面的な知識を忘れても、なにか身についているような状態にするのが理想なんじゃないかなとは思う

数学、統計学、機械学習の理論、情報科学の基本的な考え方
プログラマー的な物作りの直感や、WEB系なら文系的な能力などなど
そういうものが最も大切で、ライブラリやプログラムの文法、ツールの使い方なんかは
適当にそのつどそのつどで調べながら身につければOKなんじゃないか

最近、ツール関連は流行り廃りが激しいから、使い方をいっぱんに覚えるより
使い方がわからないツールを、英語ドキュメントを読みながら、なんとなく動かして
作業をちんたらちんたら進められる能力のほうが貴重な気がしてきた
0508デフォルトの名無しさん (ワッチョイ bf9f-BPXD)
垢版 |
2018/09/19(水) 23:21:12.82ID:Ev5NTVKN0
>>499
細かく読み進める前に、学ぶ意義付けを見直した方がいいんじゃないか。
入門書であれば章の始めなどに「何のためにこの章を学習するか」という意義付けが示されるはずだし、
示されないのであればあまり入門者向けの本ではないからもっと簡単な本から学んだ方がいい
0510デフォルトの名無しさん (アウアウウー Sa25-V+nN)
垢版 |
2018/09/20(木) 11:30:12.09ID:M2lBgQHaa
>>509
tensorflowとpytorchか?新しいの出てくるのか?
0513デフォルトの名無しさん (ワイーワ2 FF8a-wH+P)
垢版 |
2018/09/20(木) 12:30:15.73ID:7WHuQIEOF
おまいの脳は退化してる
0515デフォルトの名無しさん (ワッチョイ 65a5-tCrn)
垢版 |
2018/09/20(木) 20:04:23.98ID:5NSt/ZF+0
その機械学習の勉強意味あるんですか?
何か後に繋がるの?って言われた

そんなこと俺が聞きてぇよ!
何も知らない分からないとこから始めて勉強方法だって手探りだしやってる内容があってるか分からんし内容だって難しいしイメージ湧かないしで本人が一番不安だわ(;ω;)
なんだよちくしょう…(;ω;)
0520デフォルトの名無しさん (アウアウカー Sae9-Bug1)
垢版 |
2018/09/21(金) 18:09:41.64ID:KMw7nMvLa
目的がないのに無理して学んでもしょうがないんじゃない?
受託分析の会社に就職したいとかこういうプロダクト作りたいとか、何かしらゴールを設定しないと学んだ事も役に立たないと思う。
0525デフォルトの名無しさん (ササクッテロ Sp71-/e2F)
垢版 |
2018/09/21(金) 20:36:04.02ID:LuvXm+Whp
deepで回帰やってる人ほとんど殆ど見ないし明らかに回帰問題な物もクラス分類に置き換えてやってるの見る限り回帰よりも分類の方がハードル低いんですかね
0528デフォルトの名無しさん (アウアウカー Sae9-Bug1)
垢版 |
2018/09/22(土) 00:13:45.94ID:ZacBjrxHa
個人でもアイデア次第で面白いもの作れると思うけどな。
計算資源は趣味でやるレベルならクラウドサービス借りればいいし、
画像分類系ならImageNetのファインチューニングである程度は精度上げられる。
ラーメン二郎識別の人も、ベースの画像は自作のクローラーで集めた3万枚くらいでデータ拡張やGANで増やして精度を上げたと聞く。

サービスとして提供するレベルを目指すなら企業の力がいるけど、それは機械学習に限ったことではないし、
個人で楽しむ環境は自力で十分に用意できると思う。
0529デフォルトの名無しさん (アウアウウー Sa25-wHMa)
垢版 |
2018/09/22(土) 00:38:25.15ID:l1Z1a/8Ia
AzureとかGCPとか使いたいけど無料でやりたくてもカード登録必須で無料枠越えたら勝手に課金されるのが怖い
勝手に課金せず無料枠越えたら問答無用でストップしてくれればいいのに
0530デフォルトの名無しさん (アウアウエー Sa4a-nL3Z)
垢版 |
2018/09/22(土) 00:40:04.67ID:K4iJB0qOa
教師なしでできる事やればいいのに
強化学習とかさ
0533デフォルトの名無しさん (ワッチョイ 6db6-p9eM)
垢版 |
2018/09/22(土) 02:23:42.00ID:MAFBmZ+e0
ヒカキンの年収が10億超え!?明石家さんま・坂上忍も驚愕の総資産とは??
https://logtube.jp/variety/28439
HIKAKIN(ヒカキン)の年収が14億円!?トップYouTuberになるまでの道のりは?
https://youtuberhyouron.com/hikakinnensyu/
なぜか観てしまう!!サバイバル系youtuberまとめ
http://tokyohitori.hatenablog.com/entry/2016/10/01/102830
あのPewDiePieがついに、初心YouTuber向けに「視聴回数」「チャンネル登録者数」を増やすコツを公開!
http://naototube.com/2017/08/14/for-new-youtubers/
27歳で年収8億円 女性ユーチューバー「リリー・シン」の生き方
https://headlines.yahoo.co.jp/article?a=20170802-00017174-forbes-bus_all
1年で何十億円も稼ぐ高収入ユーチューバー世界ランキングトップ10
https://gigazine.net/news/20151016-highest-paid-youtuber-2015/
おもちゃのレビューで年間12億円! 今、話題のYouTuberは6歳の男の子
https://www.businessinsider.jp/post-108355
彼女はいかにして750万人のファンがいるYouTubeスターとなったのか?
https://www.businessinsider.jp/post-242
1億円稼ぐ9歳のYouTuberがすごすぎる……アメリカで話題のEvanTubeHD
https://weekly.ascii.jp/elem/000/000/305/305548/
専業YouTuberがYouTubeでの稼ぎ方具体的に教えます。ネタ切れしない方法は〇〇するだけ。
https://www.youtube.com/watch?v=Co9a9fHfReo
YouTubeで稼げるジャンルは〇〇動画です。YouTube講座
https://www.youtube.com/watch?v=_Nps8xb5czQ
0535デフォルトの名無しさん (ワッチョイ c980-yqSl)
垢版 |
2018/09/22(土) 11:17:23.77ID:PGp2AKzL0
低学歴知恵遅れが独学で機械学習を学習しても
一向に学習効果があがらない
このスレみてればよくわかるだろ

それと同じだからな

まずバカは勉強のしかたや努力のしかたが分かってない
だからバカはバカのまま

さらにバカはバカの自覚がない
だからバカはバカのまま

もうカンペキなレス
0536デフォルトの名無しさん (アウアウエー Sa4a-nL3Z)
垢版 |
2018/09/22(土) 11:25:37.78ID:K4iJB0qOa
流行りのディープラーニングやりたいのはわかるけどさ
データ集めるのもチューニングするのも難しいから、初心者が自前のデータでやるのは難しいと思うよ

まずはSVMとか決定木みたいな古典的な手法から入るべき
データが少なくてもそこそこ上手くいくから
0537デフォルトの名無しさん (アウアウエー Sa4a-nL3Z)
垢版 |
2018/09/22(土) 11:26:26.13ID:K4iJB0qOa
ディープラーニングだけが機械学習じゃないよ
0541デフォルトの名無しさん (ワイーワ2 FF8a-wH+P)
垢版 |
2018/09/22(土) 13:48:31.14ID:xOVRbYWfF
nipless
0544デフォルトの名無しさん (ワッチョイ 6220-Mczu)
垢版 |
2018/09/22(土) 17:59:22.10ID:QjN0TaMB0
ここに書いても無駄だろうけど
Attentionした時間順を特徴に埋め込んでから
CNNでその時間を考慮しつつ、初期層含め各層の時間情報を参照しながら畳み込む
ってモデルさっさとでないかなぁ
sota必至だから早く論文出てほしい

脳はやってる
https://www.eurekalert.org/pub_releases/2018-08/nuos-hyb082818.php

でも既存の機械学習では、初期の特徴に時間を付与することはほとんどやってない
RNNやLSTMが上手くいってないのは、初期から時間情報を連続的に把握して時間変化率を学習できないからだよ
いくら微分しても変化率とっても、初期状態からの時間情報を連続的に把握できないから学習できてない

一方、音声を特徴とする場合、ほとんどシークタイムが特徴に自動的に含まれるから
処理はクソ重くなるけど、高品質な結果が得られる

人間に置き換えても一緒
感覚器官は注意と畳み込みを同時に行いながら、それらの順でシーケンスを伝えて
脳はこの順番を記憶している
0545デフォルトの名無しさん (ワッチョイ 2e80-OXKd)
垢版 |
2018/09/22(土) 18:13:18.49ID:tW/Yy4gZ0
機械学習もいいが、センサーにはかなわん
ブラックボックスの中のものを重さや振った時の音で予測する・・・なんて回りくどいぜ
X線撮影で確認しろ
未来予測ならワームホール望遠鏡だ!
0549デフォルトの名無しさん (ワッチョイ 6976-uN3A)
垢版 |
2018/09/22(土) 22:34:55.25ID:z+m4dANi0
>>503
デフォルト設定は貧弱
カスタマイズありきで拡張性は高いんだけど、使いこなせないなら、旧版をずっと使い続けた方がよさそう
こんなツールの設定コマンドを覚える暇があったら他にやらなければならないこと五万とあるだろ
俺は覚えるつもりだけど・・・
0553デフォルトの名無しさん (ワッチョイ 69c3-onpN)
垢版 |
2018/09/24(月) 04:22:26.78ID:6dcTB1Rg0
>>544
マルコフ連鎖をモデルの中に組み込めば良いんじゃ無い?
でも微分で消えてしまうのかな.
0554デフォルトの名無しさん (アウアウウー Sa25-V+nN)
垢版 |
2018/09/24(月) 09:09:25.13ID:ekT6BbXIa
>>551
chainerのサンプルコードの方が楽。
0557デフォルトの名無しさん (ワッチョイ c252-Mczu)
垢版 |
2018/09/24(月) 16:12:04.69ID:6L+7kJR10
>>552
カプセルネットワークの手法だと
各層で獲得した特徴同士の空間的相対位置は正確になるけれど
それでは汎用性がない
脳は空間的相対位置を崩す事もできる

これは記憶している各時間情報を参照して相対位置すら入れ替え可能だからできる
注目した部分の特徴だけを切り取って、別物として貼り付けるのではなく
一定の連続的時間情報部分を切り取って、その部分の特徴を別の連続した時間情報の一部分をキーとして
完全に連結させることができる
だから本当の汎用性を獲得するためには、時間情報の連続的把握が絶対に必要になる

>>553
マルコフ性はこの場合適さない
何故ならば、脳と同様の構造を獲得するためには
過去、現在、未来すべての情報を参照する必要性があるから
0559デフォルトの名無しさん (エムゾネ FF62-wH+P)
垢版 |
2018/09/24(月) 17:28:14.05ID:Kttr1loZF
そうやね
0560デフォルトの名無しさん (アウアウエー Sa4a-nL3Z)
垢版 |
2018/09/24(月) 18:08:33.46ID:G1aPepRna
>>558
マルコフ連鎖的なレスやな
0565デフォルトの名無しさん (ワッチョイ c980-yqSl)
垢版 |
2018/09/24(月) 21:12:23.12ID:Kxio7RVg0
じゃあ待ち行列の勉強から
0567デフォルトの名無しさん (アウアウエー Sa4a-nL3Z)
垢版 |
2018/09/24(月) 22:10:45.88ID:G1aPepRna
>>556
どっちも使った事なさそう
0568デフォルトの名無しさん (ワッチョイ 65a5-tCrn)
垢版 |
2018/09/24(月) 23:18:47.49ID:OwMqA+EG0
初歩的な質問なんだけど、tensorflowやkeras、pytorchの違いは文法的な作法だけ?
機械学習の本1冊目だけど実践しながら読み終えて完全に理解はしてないけど深層学習も興味あるしやってみたいなと思うんだけど、みんながフレームワーク選ぶ基準教えてほしい
0569デフォルトの名無しさん (ワッチョイ f981-XmAP)
垢版 |
2018/09/25(火) 00:45:33.33ID:G04XkrxS0
・define and runとdefine by run、まあこの違いはなくなりつつある
・分野によって使われやすいのが違う気がする、arXivみてそんな気がしてるだけで統計とかはないけど
0570デフォルトの名無しさん (ワッチョイ c252-Mczu)
垢版 |
2018/09/25(火) 01:01:38.10ID:Rmy45yvb0
>>561
論文を書くためには結果が必要だけど
この手法は脳の構造模倣だけに凄まじい量のデータが必要になるのは明白
つまり現実的には、この畳込みモデルを適用したGANも組み込む必要があって
作業量的にも計算量的にも個人ではまず無理
0573デフォルトの名無しさん (アウアウウー Sa25-wHMa)
垢版 |
2018/09/25(火) 14:23:16.83ID:NL395plNa
回帰における学習でデータ正規化を行った上で得られたモデルを使う場合は学習時の正規化で使った平均・標準偏差を使って入力値を変換しなければいけないと思うんだけど、
scikit-learnの使い方紹介記事とか読むとtrain_test_splitで訓練・テストデータ分離して各々別々にfit_transformで正規化している記事が大半で訓練・テストデータが異なる値で正規化されてしまうことになる
これは訓練・テストデータが大量にあればどうせ平均・標準偏差は変わらないだろうというだけの認識でいいの?
0574573 (アウアウウー Sa25-wHMa)
垢版 |
2018/09/25(火) 17:49:12.68ID:kAi0n2pKa
ごめん、見た記事では多分最初だけfit_transformして次では単にtransformしてたっぽい
それなら何の問題もないな
0575デフォルトの名無しさん (アウアウエー Sa4a-3cGd)
垢版 |
2018/09/25(火) 18:05:19.79ID:MY+XQBfWa
>>570
相対性理論とか実証は別の人がやることだってあり得る
論文を出すのはできるんじゃね
それが認められるかどうかは内容次第だし
本当に有益ならリソースを持つ組織が実証するし
必要ならその組織に所属すればいいだけ
0576デフォルトの名無しさん (アウアウエー Sa4a-3cGd)
垢版 |
2018/09/25(火) 18:09:03.58ID:MY+XQBfWa
>>573
実際に応用として使用する時に上手く行くかどうかじゃね?
学習に使うサンプルが偏ってたらその値を使って正規化すると
実際に使うときに期待する結果にならないんじゃね?

期待する結果に有意差がなければどっちでも良いんじゃないの?
0577デフォルトの名無しさん (ササクッテロ Sp71-/e2F)
垢版 |
2018/09/25(火) 22:06:17.44ID:niBQlr5vp
最近回帰問題解くのがキツすぎて無理やり0〜1に正規化して分類みたいにやるのがいい気がしてきた
0582デフォルトの名無しさん (ササクッテロル Sp71-/e2F)
垢版 |
2018/09/26(水) 11:01:18.29ID:UoU/Uwygp
>>578
わからないです
画像の生成モデルで出てきた問題みたいに支配的な領域に適合して細かい構造を予測できないので、分類にしてダイス係数を使おうかと考えていました
0591デフォルトの名無しさん (ワッチョイ c923-Czqz)
垢版 |
2018/09/26(水) 23:13:11.78ID:Lv/+nPmY0
あの画像なら人間でも間違えるから仕方ない
0592デフォルトの名無しさん (ワッチョイ 65a5-tCrn)
垢版 |
2018/09/26(水) 23:34:16.52ID:KPLU+0tA0
SVCのモデルを作る時にMinMaxscalerでスケール変換して、GridSearchCVでインスタンス作って、それに対してスケール変換した訓練データを使って学習させるって事をやったんだけど、これはダメらしいんだけど前処理の前に交差検証しろっていうのがよく分からない。

交差検証の過程では分割されたデータの一部が訓練用、残りがテスト用になって、訓練用となった部分を用いてモデルを学習させて、テスト用はモデルに対しての評価に使われる。
ここまでは大体分かる

しかし実はスケール変換する際にテスト用となった部分に含まれてる情報を使ってしまってる。
このようなデータはモデルに対してまったく新しいデータとは本質的に異なる。
???訓練用の一部がテスト用になるから??
0595デフォルトの名無しさん (ブーイモ MMbf-wjEJ)
垢版 |
2018/09/27(木) 11:20:21.49ID:je3kizhWM
>>568
pythonはプログラム言語でtensorflowやkerasは効率よく機械学習するためのライブラリ。
0598デフォルトの名無しさん (ワッチョイ 5723-qD32)
垢版 |
2018/09/27(木) 22:17:45.69ID:JFP1gXlP0
英語で検索した方が有用な情報多いよ
0601デフォルトの名無しさん (ワッチョイ ff81-wjEJ)
垢版 |
2018/09/28(金) 05:57:58.09ID:f7OuEx/00
aidemyとpyqどっちで勉強したらいいですか?
0603デフォルトの名無しさん (ワッチョイ 17eb-G60S)
垢版 |
2018/09/28(金) 11:08:53.98ID:Y0/Lv67w0
QiitaとHatenaは、インストール大先生の記事が多すぎて困るから検索結果から外してるわ
0604デフォルトの名無しさん (アウアウウー Sadb-VGrh)
垢版 |
2018/09/28(金) 13:48:47.12ID:2IAcjEkAa
交差検証について検索してみるとその説明として、ある1つのモデルを考えた場合に、
元データをN分割してその内(N-1)個で学習して、残り1個でテストするのをNパターン繰り返すようなものと理解した。
しかし、CourseraのWeek6で説明してる交差検証は複数のモデルを思いついた場合の最良モデルを選択する手段と説明されており、
データをA,B,Cに3分割して、各モデルをAで学習、Bで評価して比較(このBをcross validation setと呼んでいる)、Bの評価で決定された最良モデルをCで最終評価するという内容になっている。
両者は別物のような気がするんだけど自分が理解しきれていないだけなのか?
0605デフォルトの名無しさん (ワッチョイ 9f52-aQox)
垢版 |
2018/09/28(金) 13:54:00.86ID:gzs2bud+0
>>601
俺ならaidemyの無料部分だけ流し見してからPyQやる
0613デフォルトの名無しさん (スッップ Sdbf-yIO0)
垢版 |
2018/09/29(土) 15:24:38.05ID:7SQdA+7Xd
tf 1.11 出たな、更新かけたわ。2.0 はまだなのか

>>611
それな。勤め先の意向で、個人名でひたすらいいね集めたけど、ひと〜つも仕事に結び付かなかったw
むしろ教えてちゃんからのメールが山ほどきて仕事にならなくなったんで撤退したわ

>>606
一時期やってたけど、もう少し具体的に。どういうアプローチかわからんとアドバイスしにくい。
0618デフォルトの名無しさん (ワッチョイ 57c3-e6iu)
垢版 |
2018/09/30(日) 04:27:12.57ID:vzbl47da0
協調フィルタリングって任意の精度に調整する事って出来るのかな
例えば,精度が高すぎると新しい商品に巡り会えないから,適度に偶奇性を取り入れたりすること
またそのレベルを調整できるモデルって可能?
0626デフォルトの名無しさん (アウウィフ FFdb-+W5L)
垢版 |
2018/10/02(火) 10:08:44.43ID:+xKncks4F
本屋の棚は賑わってるが粗製乱造
0627デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/02(火) 14:00:24.78ID:2AKCrptK0
ネットに同等以上の記事はいくらでもあるけど
情報まとまってるし、時間ない初学者が買うのはあり
でも電子版じゃないとjupyterやcolabで手動かしながらやるのだるいから
実本はあまり勧めないな

つってもどんどん技術が陳腐化してくから、MLの基本とCNN,RNN,LSTM,GAN,Attentionの概要だけ身につけたら
あとはdeepmindのサイトと論文全部読んで
arxivでsota達成したのだけ数カ月分読むほうがトレンドを追いかけるには手っ取り早い

実装がメインなら論文追わずにKerasやっとけ
すごいのでたらそのうちKerasにも実装されるから
それ使えってのが俺の結論
0629デフォルトの名無しさん (ワッチョイ 572d-tkFK)
垢版 |
2018/10/02(火) 15:23:49.58ID:vWOGvfhl0
みなさん、やっぱり、ハイスペックのゲーミングマシンで開発しているの?
0630デフォルトの名無しさん (エムゾネ FFbf-+W5L)
垢版 |
2018/10/02(火) 15:43:52.26ID:yDKwoLm6F
うむ
0633デフォルトの名無しさん (ワッチョイ 5723-qD32)
垢版 |
2018/10/02(火) 18:13:26.05ID:cO79peqD0
データ量次第としか
0634デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/02(火) 18:41:23.89ID:2AKCrptK0
研究や学習用途ならもうcolabでいいんじゃねーの
TPUまで無料で使えるようになったから最強すぎるわ
ただ12時間超える学習なんかの場合は、途中で保存する処理を作るか
既にある処理を使う必要性がある、Kerasには既にある
tensorflowの低レベルでやる場合は自分で書く必要性あるのかな
Pytorchはまだ触り程度で詳しくないけど、kerasと同じようなライブラリあるならそれ使えばいい

業務やサービスの場合はどうせAWSかGCP,Azure借りるだろ
0636デフォルトの名無しさん (アウアウウー Sadb-VGrh)
垢版 |
2018/10/02(火) 20:06:47.65ID:Fw3dw3lVa
sotaという言葉を知らなかったので調べてみてstate of the artの略で直訳すると最先端とかそんな意味だから何となく言いたいことは分かったけど機械学習分野での定義に当たるものが全然見つからない
sota達成とか誰がどうやって決めてるの?
0637デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/02(火) 22:59:32.38ID:2AKCrptK0
>>636
sotaって論文で書いてる連中は
arxivなどのオープンアクセスな論文サイトに投稿されてるコンピューターサイエンスの論文で有用なのはほとんど全部読んでる
だからどれが最高水準かを知ってるから
その分野におけるsota近辺のモデルの論文の結果と比較してsota達成としている
っていうのが俺の認識
論文完璧に追ってる以外にもカンファレンスで情報収集してるってのもあるだろうけど

物理学なんかと違って、ML分野はオープンアクセスな論壇で発展してきたからこうなってるんだろうけど
その辺の事情を追えてない日本人には全くわからん状態なのも仕方ない
0638デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/03(水) 00:45:53.65ID:+7Euz2g60
あぁカンファで同時にsota報告が上がってたんだな
そりゃカンファで採択されるかされないかと
オープンアクセスサイトでの論文公開タイミングは、ものによってはちげーから
いくら先端追ってる連中でも被るのは仕方ない

・GAN的な双方向マルチ学習(自然言語で言うなら敵対的逆翻訳のしあいっこ?)
・特徴に時間間隔とポジション付与
・Attentionの構造改善

この3つが大体の今のトレンドだろ
全部組み合わせたのも半年以内に出てくるだろうけど
結局の所、事象における連続した時間情報の把握と
その状態における時間変化率の学習が上手く出来てないから汎用AIにはなれんだろう

ちゃんとした学者にも俺と似たような事言ってる人いて
脳構造の模倣による時間情報の学習を、哲学的な部分からやろうって言ってる人いるけどどうなるかな
0640デフォルトの名無しさん (ワッチョイ 9f65-i+ik)
垢版 |
2018/10/03(水) 01:29:53.26ID:dkrkSoVO0
神経構造なんかは既に解明されてるけど
そうなるとしか分かっていない回路形成の発生学とか
関与しているらしいけど何してるのかいまいち分かっていないグリア細胞とか
こっちの方がモデリングをする上で重要だと思うけどね
今のMLでは生物の機能の一部を模擬してるだけに過ぎない
0643デフォルトの名無しさん (スッップ Sdbf-EJHQ)
垢版 |
2018/10/03(水) 12:26:33.96ID:+58IDnbyd
脳モデルはあくまでNN、DL起案者が何をモデルとして数学モデル化したかであり、NN、DLは脳モデルそのものではない。
また、そもそも脳モデルが最適なモデルかどうかはまだ証明が存在しない。

たまたまDLがよい結果出たからそう言われてるだけ。

脳モデルが最適かどうかという前提を何も示さずに、研究者のなかに、『脳の伝達には〜があるから○○を追加したらこうなるはず』みたいな議論されているのを見ると、滑稽に思う。
0648デフォルトの名無しさん (アウアウウー Sadb-VGrh)
垢版 |
2018/10/03(水) 12:35:57.50ID:d+kLgL6ia
人間の脳が超省エネで高速に学習して予測結果の出力できているのと比較すると現行モデルは脳と呼ぶにはには程遠いんだけど非理系メディアでは人間の脳を模倣しているなどと喧伝される
0650デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/03(水) 13:20:41.80ID:+7Euz2g60
CSなんて結局は計算能力との兼ね合いだからな
仮に完全に脳構造を模倣したモデルを組み上げたとしても
それがクソ重くて現行の計算資源で回らなけりゃクソだとしか評価されん
かといって脳構造の模倣や考察を放棄するのは適切じゃない
世界モデルもこっちよりだし、強化学習をやるためには避けられないだろう

問題はRNN,LSTMでは事象における連続した時間情報をあまり学習できてないってことだな
TransformerとUTは時間間隔をと位置情報を特徴に埋め込む事で
マルチヘッドセルフattentionにそれらを処理させているが
おそらくは完璧を求めると
階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み
なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある
これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう
計算力はどうせなんとかなるだろうし
誰かが気づけば、あと10数年で汎用AI完成するんじゃね
0651デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/03(水) 13:29:51.05ID:+7Euz2g60
そもそも脳構造の哲学的推測における模倣はイメージじゃなくて
ただの論理的思考なんだけど
推測の過程において論理が飛躍しすぎてると
大抵の人は妄想だと判断して、考察を放棄する傾向があるからしょうがないわな
それが当たり前だもの
0652デフォルトの名無しさん (アウウィフ FFdb-+W5L)
垢版 |
2018/10/03(水) 13:44:52.38ID:oOvr2XyQF
>>646 >>643
小脳とかをラッピングする形で大脳とかがあるように
NN を別の何かでラッピングするようなモデルがあっても
まだ全く脳のモデルですらない
0656デフォルトの名無しさん (スッップ Sdbf-EJHQ)
垢版 |
2018/10/03(水) 17:49:41.29ID:+58IDnbyd
大事なことなので復唱します。

世に広めるにはイメージが大事です。
ただ研究者はイメージで研究してはダメです。

研究者の中には、脳モデルが最適かどうかという前提を何も示さずに、
『脳の伝達には〜があるから○○を追加したらこうなるはず』
みたいな議論されている方々がおりますが、根拠が薄く滑稽に思います。
0657デフォルトの名無しさん (ワッチョイ 17d2-ZVm4)
垢版 |
2018/10/03(水) 17:57:56.16ID:Oh5w9UQA0
>>653
AI関連の話題は、タイトルは大げさなんだけど内容はショボいよね。
俺は頑張りますよ!
0658デフォルトの名無しさん (アウアウウー Sadb-VGrh)
垢版 |
2018/10/03(水) 18:01:02.58ID:3Ieh8Fw3a
最適かどうかは完成物があれば評価できるんだからいいでしょ
そもそも分からないから研究して新しいモデルを作るわけで
最初から何が最適か知っている人がいてそれを論理的に説明できるのならばとっくにそれがスタンダードになっているはずだがそうはなっていないんだから最適など誰も知らないと考えるのが自然
0659デフォルトの名無しさん (スッップ Sdbf-EJHQ)
垢版 |
2018/10/03(水) 18:05:20.45ID:+58IDnbyd
つまりはまあ、最近の機械学習の論文なんて実績と経験則の積み上げ(帰納)によるものがほとんど。
より良きモデルからスタートしたモデルのアイデア(演繹)を求む
0661デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/03(水) 19:13:50.43ID:+7Euz2g60
結果あるなら論文書いてarxivに投稿すりゃいいじゃん
高校生ですらMLの論文書いて投稿してたの昨年話題になったろ
0664デフォルトの名無しさん (アウアウエー Sadf-jt0n)
垢版 |
2018/10/03(水) 20:46:41.49ID:YGFwuNMda
>>654
単純構造で目的を達成できるならそれでいいんじゃないの?
必要以上に複雑にして何かメリットあるの?
0665デフォルトの名無しさん (アウアウエー Sadf-jt0n)
垢版 |
2018/10/03(水) 20:48:04.20ID:YGFwuNMda
>>656
既に実現されてるものを真似するのは方法の一つじゃない?
バイオミメティクスとか
0666デフォルトの名無しさん (アウアウエー Sadf-jt0n)
垢版 |
2018/10/03(水) 20:49:11.35ID:YGFwuNMda
>>656
最適かどうかは評価尺度によるところもある
経済的になのか学習コスト的になのか結果の精度的になのかとか
0667デフォルトの名無しさん (アウアウエー Sadf-jt0n)
垢版 |
2018/10/03(水) 20:50:21.87ID:YGFwuNMda
>>659
結果が全てじゃね?
モデルを頭で考えても実証しなければ役に立たない
数学とは違うんじゃね?
0668デフォルトの名無しさん (アウアウエー Sadf-jt0n)
垢版 |
2018/10/03(水) 20:52:26.70ID:YGFwuNMda
>>660
それが何の役に立つのかとか
どんな課題を解決できるのかとか
あとは面白いかどうかとか
ARの技術もスノーとかに応用することで一般の人は知らずに広まっている
0671デフォルトの名無しさん (ワッチョイ 9fda-aQox)
垢版 |
2018/10/03(水) 21:59:40.34ID:+7Euz2g60
そもそも、ある程度iter重ねるか、少数サンプルで訓練した結果をプロットしつつ
新しいモデルを模索してくのが、今のMLにおける超大多数の手法であって
最初から論理的組み立て部分で有効性を実証してから研究始めるなんて手法は
明らかにメジャーではない

取り敢えず予測モデルで雑なコーディングして、訓練結果をプロットしてみてから
数理モデルの有効性に論理的説明をつけるって手法がメインなのは
有用な結果を残してる論文の内容からも分かる話

ほとんどだーれも論理的説明を完璧に付けてから研究開始なんざしてない
+58IDnbydの論理展開を適用すると、全員滑稽になっちまわないか?
そういう意味で、既に有効性の確認されている脳っていうクソ速いモデルを模倣するっていうのは
その時点である程度の論理的根拠を示しているとすら言える
0675デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
垢版 |
2018/10/04(木) 08:08:02.24ID:WxW/ujNfa
>>669
帰納的なアプローチがなぜダメだと判断でしているのか判らない
帰納的に発見した原理を演繹的に適用すれば良いだけじゃね?
0676デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
垢版 |
2018/10/04(木) 08:09:50.53ID:WxW/ujNfa
>>671
帰納的に探索する領域の問題でしかないだろ

演繹的に適用する原理に相当するものはどこから発見するのか
0678デフォルトの名無しさん (アウアウエー Sa6a-TFgJ)
垢版 |
2018/10/04(木) 10:14:52.99ID:AR+RrRuFa
好きなんだがなあchainer
0679デフォルトの名無しさん (シャチーク 0Cde-XM+q)
垢版 |
2018/10/04(木) 12:34:16.99ID:zfP46g3nC
Google Colaboratoryで
!apt -y install libcusparse8.0 libnvrtc8.0 libnvtoolsext1
ができなくなったのだがどうしたらいいのか
0680デフォルトの名無しさん (JP 0H9a-2jv+)
垢版 |
2018/10/04(木) 16:03:33.77ID:ux982JKKH
演繹厨うぜえ
0683デフォルトの名無しさん (フリッテル MM5e-DXVT)
垢版 |
2018/10/04(木) 22:39:26.90ID:ktsy0FKAM
visual studio
0686デフォルトの名無しさん (ワッチョイ 01b3-hMf/)
垢版 |
2018/10/05(金) 08:18:57.73ID:cSK7i/nT0
NVIDIA RTX 2080 Ti vs 2080 vs 1080 Ti vs Titan V, TensorFlow Performance with CUDA 10.0

https://www.pugetsystems.com/labs/hpc/NVIDIA-RTX-2080-Ti-vs-2080-vs-1080-Ti-vs-Titan-V-TensorFlow-Performance-with-CUDA-10-0-1247/

1080Tiと2080Ti比べるとFP32は1.35倍くらいでゲームのベンチ(レイトレコア・テンサーコア使わない場合)と同じ傾向でガッカリ
FP16ならさすがに速いね
https://i.imgur.com/Dq30VnF.jpg
https://i.imgur.com/2TIiMYA.jpg
0687デフォルトの名無しさん (アウアウエー Sa6a-TFgJ)
垢版 |
2018/10/05(金) 10:48:01.81ID:kmGDPqXya
>>684
マルチGPUの分散学習はChainerが速いらしいから頑張ってほしい
0693デフォルトの名無しさん (ササクッテロレ Sp10-DPST)
垢版 |
2018/10/06(土) 15:40:12.76ID:638PEvttp
会社の技術発表で機械学習をやってみたいんだけど、
例えば、複数ユーザーのツイートを元に学習したアカウントで人間っぽく自動ツイートする、みたいなことって可能ですかね?
使用したことある言語はjavaくらいで、Pythonとかは始めてなんですけど
0694デフォルトの名無しさん (ワッチョイ 5123-HYg0)
垢版 |
2018/10/06(土) 15:55:25.36ID:XsiX8sgh0
可能
0696デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
垢版 |
2018/10/06(土) 20:05:00.50ID:higGMxdEa
>>695
ところで業務にはどう役に立つのかね?
って言われそう
0703デフォルトの名無しさん (ブーイモ MM5a-HYg0)
垢版 |
2018/10/07(日) 00:53:53.77ID:o9Iuox3HM
2chの方が著作権移動が厳しい
0705デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
垢版 |
2018/10/07(日) 05:08:20.65ID:xO6NYQqFa
>>701
著作権で言えば
著作者人格権とか著作権に関する権利の一部は
日本の法律ではなくならないはず
0708デフォルトの名無しさん (オッペケ Sr10-TFgJ)
垢版 |
2018/10/07(日) 11:49:44.59ID:KWtYBJ31r
個人情報保護とかで医療関連はデータ集めるのが大変だそうな
0711デフォルトの名無しさん (アウアウウー Sab5-TgND)
垢版 |
2018/10/07(日) 14:14:45.59ID:cOS3eGIea
>>707
つまりこういうことだな
現在:「学習用データ収集→諸々の処理→学習モデル作成」を個人や自社だけで完結させる場合は商用・非商用問わず著作権者の許可を取る必要なし
2019/1/1以降:収集した学習用データを他人・他社に公開・販売するのも著作権者の許可を取る必要なし
※もちろんデータ解析という本来の目的外に使用されることが明らかなら違法なので、漫画データの学習のためと謳って漫画スキャン画像を公開するとかはNG

ということで、明らかに悪用するような使い方でない限りデータ解析において著作権を気にする必要はない
0717デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
垢版 |
2018/10/07(日) 20:45:05.75ID:RqIyj36Sa
>>708
個人情報を収集するときに
利用目的や利用の範囲とかを示して
合意して貰えばいいだけじゃね?
おと要求に応じて開示修正破棄できるようなシステムにしておく
ほかの個人情報でも同じ
0718デフォルトの名無しさん (ワッチョイ d980-A6IM)
垢版 |
2018/10/07(日) 21:24:55.65ID:mIq+f5AO0
https://arxiv.org/pdf/1312.4400.pdf
> 3.2 Global Average Pooling

> ・・・
> However, the fully connected layers are prone to overfitting, thus hampering the generalization ability
> of the overall network. Dropout is proposed by Hinton et al. [5] as a regularizer which randomly
> sets half of the activations to the fully connected layers to zero during training. It has improved the
> generalization ability and largely prevents overfitting [4].

> In this paper, we propose another strategy called global average pooling to replace the traditional
> fully connected layers in CNN.
0722デフォルトの名無しさん (アウアウエー Sa6a-TFgJ)
垢版 |
2018/10/08(月) 11:44:43.55ID:tjiQ7o9Aa
>>717
これから集める分ならそうだろうな
でも今まで蓄積してきたデータは?
契約上使っても問題ないデータが十分集まる頃にはとっくに置いてかれている
0723デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
垢版 |
2018/10/08(月) 13:07:36.75ID:DvqFh1SLa
>>722
再確認すれば良い
利用規約の改定とか普通によくあることじゃね?
0724デフォルトの名無しさん (アウアウエー Sa6a-TFgJ)
垢版 |
2018/10/08(月) 14:02:39.08ID:tjiQ7o9Aa
>>723
その再確認を既に退院した人含めて一人一人にするのは結構大変なのでは
0729デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
垢版 |
2018/10/09(火) 08:09:06.14ID:CcNKGFP6a
>>724
新たに同等のデータを取るのに比べたら手軽じゃね?
現状の法律でも個人情報の開示や削除要請には応じる必要があるからその準備はできているはず
0739デフォルトの名無しさん (ワッチョイ 7f08-w7rM)
垢版 |
2018/10/11(木) 13:19:56.51ID:WWqvoXS50
AI(人工知能)で既存のホワイトカラーの仕事がなくなっていく一方、
孫正義が言うように「AIのエンジニア」の需要は増加する。

そこで画像生成について学習してるんだが、
DCGANは知ってたけどCycleGANというものがあることを知った。
CycleGANはかなり面白そうだったので、

自前で人工知能作ろうと思う。
GTX1080で3時間学習させたCycleGANがあったんだが、
男性のトーク動画を女性に変換しててすごいと思った。

これから購入するパソコンのスペックはGTX1080以上あればいいかな?
0745デフォルトの名無しさん (ワッチョイ df5d-nqL9)
垢版 |
2018/10/11(木) 20:26:53.34ID:CtLR6CRw0
メモリ8GBでやってたら訓練データメモリに載せるだけでPCカックカクでわろた
一応モデルとバッチはGPUのメモリが足りてるからいいけど訓練データ増えたらきついな
0748デフォルトの名無しさん (アウアウエー Sa9f-0CBk)
垢版 |
2018/10/13(土) 01:09:59.51ID:I1iISO8ka
訓練データ全部メモリに乗せてやるなんてMNISTくらいでは
0751デフォルトの名無しさん (アウアウエー Sa9f-0CBk)
垢版 |
2018/10/13(土) 10:31:45.96ID:I1iISO8ka
>>750
本物を本物と言えることも必要
0753デフォルトの名無しさん (アウアウエー Sa9f-0CBk)
垢版 |
2018/10/13(土) 12:02:40.35ID:I1iISO8ka
>>752
ジェネレータが生成したデータか本物のデータかってラベルはGANの枠組みとして付けられるよね
GAN自体は教師なしだけど、識別者はこのラベルを使って教師あり学習する
0754デフォルトの名無しさん (ワッチョイ df9f-FjYh)
垢版 |
2018/10/13(土) 12:44:21.13ID:Ttma0+8g0
識別側の学習には教師ラベルを使ってるってこと?
識別の学習では普通の分類NNのように本物の画像と正解ラベルを使ってそれらが本物であることを学習させていくってことか
じゃあ生成側の学習はどういうしくみ?
0756デフォルトの名無しさん (オッペケ Sr9b-0CBk)
垢版 |
2018/10/13(土) 12:50:36.89ID:i0XDn4SOr
>>754
識別側はデータが本物なら1、偽物なら0を出力するように学習するので、生成側は自分が出力した画像に対して識別側に1を出力させるように学習する
0760デフォルトの名無しさん (アウアウイー Sa9b-9ozk)
垢版 |
2018/10/15(月) 17:10:25.47ID:XOcEM3KAa
CNNの分類による検出器の作り方ですが、
例えばドラレコの映像から人を検出したいとして、
例えば映像を適当な矩形でラスターして人か否かの2出力CNNにかける場合、
学習時にネガティブとして与える映像はどうすればよいですか?
人以外のあらゆる一般物体を集めてきてネガティブにすれば効果が高いのでしょうか?
0764デフォルトの名無しさん (アウアウイー Sa9b-9ozk)
垢版 |
2018/10/15(月) 17:58:33.61ID:XOcEM3KAa
>>761
検出器を使っていない理由は画像全体にラベリングしたいからです。
それだとsegnetとかをファインチューニングしろ、と言われそうですが
ピクセル単位のラベル付けが困難なためです。
結局のところsegnetのようなものをCNN分類を矩形走査することで画像単位ラベルのデータセットのみで作ってみたいということです。
0766デフォルトの名無しさん (ワッチョイ df09-a1T9)
垢版 |
2018/10/15(月) 20:07:31.69ID:E7SbL8Og0
BERTの成功とその方向性から垣間見える
脳構造の模倣における連続的時間情報の把握の重要性
俺が>>650で指摘している状態

>おそらくは完璧を求めると
>階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み
>なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある
>これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう

これとBERTで使われている、transformerよりも更に多層化して各層の参照密度を増したAttentionとの間に
共通性を認識できる人がいれば、俺の言い分を理解してもらえるだろう
0774デフォルトの名無しさん (アウアウイー Sa9b-9ozk)
垢版 |
2018/10/16(火) 18:17:43.89ID:LVmCdvc6a
>>772
すいませんちょっと質問の仕方を変えさせていただきます。
入力画像に対して「犬」、「猫」、「それ以外」の3クラスで分類を行いたい場合、
「それ以外」のクラスとしてどのようなデータセットを与えるべきでしょうか?
0775デフォルトの名無しさん (アウウィフ FFeb-NsMu)
垢版 |
2018/10/16(火) 18:25:20.10ID:YLHbxnbGF
one
near
threeee
0777デフォルトの名無しさん (アウアウエー Sa9f-Zhpk)
垢版 |
2018/10/16(火) 19:13:11.22ID:mtK6WYc4a
cifar-10やimagenetの犬猫以外のクラスを与えたら?
0781デフォルトの名無しさん (オッペケ Sr9b-Zhpk)
垢版 |
2018/10/16(火) 20:00:36.96ID:BMUJGI05r
>>779
確率として解釈出来なくなるから
犬 100
猫 010
他 001
とすべき
0782デフォルトの名無しさん (アウアウイー Sa9b-9ozk)
垢版 |
2018/10/16(火) 20:07:12.15ID:Yv68lSL8a
>>777
与えた結果よい成果を生んだ参考文献か何かはありますでしょうか?
直感ですと特徴を捉えきれないと思うのですが上手く作用したりするのですかね。

>>779
そんなラベルの付け方もあるのですか??
出力層の正規化はどうやるのでしょうか?
0783デフォルトの名無しさん (アウアウエー Sa9f-Zhpk)
垢版 |
2018/10/16(火) 22:36:45.28ID:mtK6WYc4a
>>782
文献は知らないけど
スクラッチで学習するんじゃなくGoogLeNetとかをファインチューニングしたらどうかな
0787デフォルトの名無しさん (ワッチョイ 7f08-w7rM)
垢版 |
2018/10/17(水) 18:06:30.59ID:c6ApCslj0
実験結果
CPU使用

MNISTでソフトマックス関数使ってやってみた結果
100エポック
92%

フィードフォワードネットワーク利用
300エポック
98%

MNISTぐらいならCPUでもそこまで時間かからないな
人工知能用にPC買う予定だけど
GPU使用が楽しみだ
0788デフォルトの名無しさん (アウアウエー Sa9f-Zhpk)
垢版 |
2018/10/17(水) 20:25:47.05ID:aGL7TZ3Ma
>>786
分類やりたいだけなのにわざわざ検出アルゴリズム持ち出すのって大仰過ぎないか
0792デフォルトの名無しさん (ワッチョイ 67b3-3xFn)
垢版 |
2018/10/17(水) 23:52:28.66ID:bpF2/qnc0
>>787
適当に3~4階層で作ったので
MNIST87%行ったから
DLチョロいじゃんとか思って
Karasの他のapplicationに手を出したら
学習終わるまで300時間とか言われて泣きが入って
RTX2080Ti買おうと思ったら高過ぎワロタ
0795デフォルトの名無しさん (アウアウイー Saf3-AyP3)
垢版 |
2018/10/18(木) 18:29:04.82ID:WjJlstdVa
>>786
yoloから検出機能を取ったようなネットワークがあれば良いのですが・・
最悪全クラスに対して識別器を作ってもいいので、
犬の画像が入力された時だけ発火して1を返すようなネットワークでもいいのですがそんなのありませんかね?

>>789
多クラス分類のためソフトマックス正規化を使っているので0,0にはならないですね。
この例で言うと0.5,0.5になってくれると大万歳なのですが大体そうはなりません。
上の人が言ってるようにどっちか推して来やがります。

>>792
そこまで高いの買わなくても、
サブ機に1050Ti積んでますけど
inceptionv3の199層〜のファインチューニングでも
32000枚を100エポック回して大体5時間で終わりますよ
低価格でいろいろ試すには悪くない性能だと思うので検討してみてはいかがでしょうか。
0797デフォルトの名無しさん (アウアウウー Sa9f-Wo3P)
垢版 |
2018/10/18(木) 21:08:27.70ID:3WNLz9C3a
>>795
ソフトマックスを使う限り、出力が[0.5, 0.5]というのは犬の確率と猫の確率が同程度であるという意味しか持たない
同程度に高いのかもしれないし同程度に低いのかもしれないわけだが、この両者は分離できなければならない
ということで出力層にソフトマックスは使わずに例えば単にシグモイドを使えば出力される2つの数はそれぞれ犬・猫の確率を独立に算出したものとなる
適当な閾値を決めて一方のみが大きければ犬or猫と判定、共にゼロ近くならどちらでもないと判定すればいい
それ以外の中途半端な出力が頻発するならそもそも犬猫の特徴を学習できていないので出力層を工夫したところで無駄であり、学習データを増やしたり出力層以前の層の構造を改良するしかない
0798デフォルトの名無しさん (アウアウエー Sae2-6bZA)
垢版 |
2018/10/18(木) 22:55:11.05ID:E8jILIgaa
>>789
犬猫だけで分類学習したネットワークにそれ以外のデータを入力することがナンセンス
学習した分布から外れたデータだから出力がどうなるかは分からない
犬でも猫でもない画像だとしても高い確度でどちらかに分類され得る
0799デフォルトの名無しさん (ワッチョイ 53c3-+WKx)
垢版 |
2018/10/19(金) 01:42:27.71ID:heGbLBdq0
>>798
最近傍距離でやったらそうなるよね.
本当にナンセンスと言うことに同意.
0800デフォルトの名無しさん (ワッチョイ 53c3-+WKx)
垢版 |
2018/10/19(金) 01:51:18.44ID:heGbLBdq0
>>795
元々の目的が人か否かを検出したいんだよね?
yoloを使えば良いと思うけど,それを使いたくないなら
>>760 の通りの方法でも汎化性能は悪くなるはずだけど行けなくもない(実運用はやめてね)

人のように見えるオブジェクトを誤検出するだろうし,人のポスターを人と判断するだろうし
多クラス分類にして,より確率の高い分類器xを選ぶじゃ駄目なの?2値分類は汎化性能という意味では極端に弱いから自動運転に関しては辞めた方が良いと思うよ
0801デフォルトの名無しさん (ワッチョイ 53c3-+WKx)
垢版 |
2018/10/19(金) 01:55:24.05ID:heGbLBdq0
>>760
言い忘れたけど,人以外の物体が何を指すのかよく分からないけど
人が写って無い道路の画像で学習させるのが一般的だと思うよ.
それ以外の画像だと潜在空間における人とotherの距離が不明になるし辞めた方がいいよ
0804デフォルトの名無しさん (ワッチョイ 53c3-+WKx)
垢版 |
2018/10/19(金) 06:33:27.67ID:heGbLBdq0
研究を議論したいなあ,だれかスレ作って
0808デフォルトの名無しさん (アウアウイー Saf3-AyP3)
垢版 |
2018/10/19(金) 13:50:41.29ID:R1ndva0Ba
>>797
なるほど、凄く答えに近いこと聞いた気がします。
アクティベートをシグモイドにするだけでその挙動が得られるのですか?
条件反射でソフトマックス使ってたので盲点でした。
少し試してみます。
0809デフォルトの名無しさん (アウアウイー Saf3-AyP3)
垢版 |
2018/10/19(金) 13:56:34.41ID:R1ndva0Ba
>>798
なるほどそういうものなのですね。
しかし疑問なのが、どうして犬を検出する検出器は学習させることが出来るのに
犬の画像が入力された時だけ1を返すネットワークを学習させることができないかです。
明らかに後者の方が簡単なように思うのですが。。
お詳しそうなのでよければ教えていただけませんか?
0811デフォルトの名無しさん (スップ Sd2a-uXI1)
垢版 |
2018/10/19(金) 14:15:57.11ID:gl4kTOSHd
>>809
機械学習の一般論として、なにかを判定するには教師データとして正例と負例をおなじ数だけ与えるのが基本でしょう
「googleが猫を検出するDNNを作った」事例がよく取り上げられるけど、あれだって大量の猫画像とそうでない画像を与えている
0813デフォルトの名無しさん (オッペケ Srb3-6bZA)
垢版 |
2018/10/19(金) 15:33:05.18ID:pogP5zPXr
>>809
前者は1000クラスの分類器がベースになってる
日常的に身の回りにある物は大体この1000クラスに含まれるので犬を(も)検出できる
当然その1000クラス以外が入力された時にどうなるか保証はない
後者は犬以外のどんな画像が入力されても0を返すのが難しい
これは犬以外に対応する潜在空間が圧倒的に広いから

でもまあ実用的には1000クラス分類器の流用で十分な気もするな
0814デフォルトの名無しさん (ワッチョイ 7bd2-Pr2h)
垢版 |
2018/10/19(金) 15:55:18.03ID:7FKkwhq/0
>>805

> AIっていかに論文をたくさん読んで、どれだけパクるかの勝負じゃん

ということは、AIが何か知っているんか?
じゃ、AIとは何か言ってみ?
0817デフォルトの名無しさん (アウアウイー Saf3-AyP3)
垢版 |
2018/10/19(金) 16:54:39.13ID:R1ndva0Ba
>>813
なるほど。。
それなら素人考えですと、
imagenetの画像を犬とそれ以外の2クラスに分けて
2クラス分類で学習させたネットワークは
その検出器と比べて認識力ではほぼ等価と見なせますか?
0818デフォルトの名無しさん (アウアウイー Saf3-AyP3)
垢版 |
2018/10/19(金) 16:59:37.79ID:R1ndva0Ba
>>811
なるほど。
ではそのように猫だけを検出するネットワークを作りたいとしたら、
ネガティブとしてどんな画像を与えるのですか?
上の方も言ってる通り潜在空間が広すぎると思うのですが、
例えばimagenetの猫以外の画像を全てネガティブとして1クラスに押し込んで特徴って捉えれるのですか?
0819デフォルトの名無しさん (オッペケ Srb3-6bZA)
垢版 |
2018/10/19(金) 17:18:26.23ID:pogP5zPXr
>>817
普通にそれをやると犬以外のデータが圧倒的に多いので多分上手くいかない
何も考えず全て犬以外に分類するだけで正解率99.9%を達成できるので、単純に分類誤差最小化で学習するとそうなる
学習済みネットワークの出力を加工するかファインチューニングするのがいいと思う
0820デフォルトの名無しさん (アウアウイー Saf3-AyP3)
垢版 |
2018/10/19(金) 17:38:40.69ID:R1ndva0Ba
>>819
なるほど、、ためになります。
そういう実用的な事が書いてある書籍か何かありませんか?
ディープラーニングの本いろいろみて回ったのですが、
理論(数式)責めでドヤってる本か、
ネット見れば分かる程度の初歩的な実装方法書いたような本しかなくて困ってるのですが・・
欲しいのは数式でもチュートリアルでもなく実用性のあるものなのですが。
これ1冊あれば数式読まなくてもモデル選定からチューニングのコツまで分かるみたいな本ないですか?
0821デフォルトの名無しさん (オッペケ Srb3-6bZA)
垢版 |
2018/10/19(金) 17:55:39.31ID:pogP5zPXr
>>820
そんなうまい話ないぞ
学習したいデータや問題毎に色々な試行錯誤がある
仮に望むような本があって表面だけなぞったとしても同じ悩みにぶつかるよ
0825デフォルトの名無しさん (ワッチョイ 2a23-ZrT7)
垢版 |
2018/10/19(金) 21:18:55.91ID:TlirwEgq0
>>818
そういうこと(猫画像とそれ以外画像とに分ける)で学習してる例が多いと思うけどね。ただ指摘があるように正例と負例の数は揃えないと。
あなたが実際にその分類器を使う段階になって、猫以外の画像としてどういうものが入力されるのか? それに近い分布のものを負例としなきゃ

「仕事ではじめる機械学習」あたり読んでみては(自分は読んでないけどw)
0831デフォルトの名無しさん (アウアウウー Sa9f-S/Dd)
垢版 |
2018/10/20(土) 00:58:23.13ID:2DsZDK0Sa
正例と負例の訓練データ数が全く桁違いの場合って割と多いと思うんだけど
例えば機械の故障判定とか製品の不良判定とか、正常データが大量にあって異常データは僅かになるのが典型的
その場合全て正常と判定するモデルの正解率は高くなるが、混同行列見たりF1値を評価指標にすればそんなのは非常に悪い学習結果と判断できるから排除できる
0834デフォルトの名無しさん (アウアウイー Saf3-AyP3)
垢版 |
2018/10/20(土) 16:36:17.04ID:d68y9Vxsa
>>830
理解出来ない訳では無いですけど無駄手間じゃないですか?
ただツールとして使いたいだけで理論を開発しようって訳ではないので(そもそも数式には興味ない)、
数式見るのは研究者がやればいいと思うのですが。
ガウシアンぼかしの式すら知らない素人でもリファレンス見て試行錯誤で華麗にフォトショップ使いこなしますよね?
あんな感じに早くなればいいと思うこの頃です
0837デフォルトの名無しさん (ワッチョイ 1adc-+WKx)
垢版 |
2018/10/20(土) 16:58:22.99ID:yNArAPz00
特定のものを認識させて物理空間上の位置(座標)を出力値とする場合って
SSDやYoloのような物体認識を使った方が早いかな?

>>883
882が何のライブラリを使ってるか知らんけど、tensorflowのMac版はCPUしか対応してない
0838デフォルトの名無しさん (アウアウウー Sa9f-yEbU)
垢版 |
2018/10/20(土) 17:04:33.60ID:V8iNamHla
最先端の研究結果の数式が必ずしも理解できる必要はないが
機械学習の基礎になる線形回帰、ロジスティック回帰、ニューラルネットワークの全結合層の原理程度は分かっていなければ厳しい
これが理解できていなければ自分の手持ちデータで何かやろうにもどんな手法を使うべきか見当も付けられず、
名前を知ってるものを適当に使ってみて精度が良かった・悪かった、と錬金術的にやるしかなくなる
0839デフォルトの名無しさん (ワッチョイ f380-tM5n)
垢版 |
2018/10/20(土) 17:09:48.35ID:gp/trlhl0
機械学習ではな
自分よりお利口なもんはできない

まず自分がなんでバカで頭悪いかを考えたほうが有意義だからな

バカのくせになんで自分よりお利口なもんができると思うのか
そこが不思議でならない
0840デフォルトの名無しさん (ワッチョイ f380-tM5n)
垢版 |
2018/10/20(土) 17:17:07.08ID:gp/trlhl0
バカでなければ
どうやったら自分が効果的に学習できるか考えるからな

自分が効果的な学習ができないのに
計算機で効果的な学習とかまずムリ
0842デフォルトの名無しさん (アウアウエー Sae2-6bZA)
垢版 |
2018/10/20(土) 18:39:36.65ID:AUqXYm6Fa
>>834
フォトショップを知識がなくても使いこなせるのはアルゴリズムが成熟していて大半の処理は裏方で自動でこなしてくれてるから
機械学習では自動で問題毎に自動で最適な処理をできる技術がまだ確立されていないから、ツール的に軽く触っただけで良い結果を得るのは難しいよ
0843デフォルトの名無しさん (ワッチョイ f380-tM5n)
垢版 |
2018/10/20(土) 18:49:17.27ID:gp/trlhl0
知識って。。。
画像処理ソフトとか画像データのピクセル加工やってるだけやんけ

で、見た目がそうなってる
とりあえず見た目こんな感でいいや

コレを機械学習と同じと思ってる時点でもうね
0844デフォルトの名無しさん (アウアウイー Saf3-AyP3)
垢版 |
2018/10/20(土) 20:39:27.85ID:k0LrzqP2a
>>836
本質を理解しようとはあまり思っていませんね。
とりあえずツールとしてラクチンに使えたらそれだけでよいので・・
>>837
そうだったんですね、自分winでブートしてるのでそれは知りませんでした。
>>838
そうなんですよ、そこなのです。
だから手持ちデータとやりたいこと等から使うべき手法やモデルを教えてくれる本とかがあればいいんですけどねえ
0845デフォルトの名無しさん (アウアウイー Saf3-AyP3)
垢版 |
2018/10/20(土) 20:44:45.92ID:k0LrzqP2a
>>842
そうですよね。
だから最適な処理を見つけるためのバイブル的なものがあればなあと思っています。

>>843
本質的にはあまり変わらないと思うのですが。
上の人が言っている通り自動化する技術が確立されていないだけで、
学習自体はデータに対して同じ処理を繰り返してるだけですし、
フォトショップでいう見た目=テストaccなりlos、という感じで使えても悪くないと思いますし
最近でいうならそれこそGANなんて見た目だけの話なのでとりあえずこんな見た目でいいや、で解決すると思います。
0847デフォルトの名無しさん (ワッチョイ 6ad2-CW5R)
垢版 |
2018/10/21(日) 03:09:43.34ID:yA/rLZti0
まあ発展途上よな
実用も含めて
0848デフォルトの名無しさん (ワッチョイ 53c3-+WKx)
垢版 |
2018/10/21(日) 05:50:34.84ID:MsXt9/J70
>>845
>だから最適な処理を見つけるためのバイブル的なものがあればなあと思っています。
これは最先端の研究なので論文を読んでパラメータの設定はどうするとか学ぶ必要がある.
いくら機械学習の出版が早いとはいえ待ってたら2,3年は遅れた知識になる.

後結局手法はAutoMLとかで大体今でも自動化できてるんだけど,データから推定した結果の解釈とかの問題もあるし,
全部が全部バイブル通り行くとは行かないのが現実.「全てのモデルは間違ってる.完全なる解釈はない」というのが統計学の鉄則だよ
0849デフォルトの名無しさん (ワッチョイ 53c3-+WKx)
垢版 |
2018/10/21(日) 05:53:12.18ID:MsXt9/J70
赤池先生の経歴をと尊敬を持って機械学をやるべきだと僕は思ってる.

汎化誤差の最小化だけじゃあまりにもつまらないし.最近のAmazonの差別AIみたいなのができるのが落ち.
未来はどうなるか分からないけど数式から逃げることはできないと覚悟した方が良いと思う.
0857デフォルトの名無しさん (ワイーワ2 FFa2-T/6m)
垢版 |
2018/10/21(日) 11:29:45.72ID:sjXodBVwF
>全部が全部バイブル通り行くとは行かないのが現実.「全てのモデルは間違ってる.完全なる解釈はない」

ほんそれ
0858デフォルトの名無しさん (アウアウイー Saf3-AyP3)
垢版 |
2018/10/21(日) 13:35:30.75ID:Ya81v9Q1a
>>848
最先端のネットワークはモチロンそうでいいと思うのですが、
DropoutやらReLUとか組み込んだCNNならもう流行りだして2,3年は経ってると思うので
それくらいの構造のCNNでimagenetのような分類タスクしようと思った時にモデル選定とかどうチューニングしたらいいとかある程度まとめてくれてるような書物があったらいいなと思いました。
0859デフォルトの名無しさん (ワッチョイ 53c3-+WKx)
垢版 |
2018/10/21(日) 14:04:50.88ID:MsXt9/J70
>>858
あるのでは
0860デフォルトの名無しさん (ワッチョイ 53c3-+WKx)
垢版 |
2018/10/21(日) 14:07:48.83ID:MsXt9/J70
最近の書籍だと直感ディープラーニングとか
0866デフォルトの名無しさん (オッペケ Srb3-6bZA)
垢版 |
2018/10/22(月) 14:37:01.74ID:zvg+yeJrr
CEATECでPFNが出してた片付けロボットすごいよな
0868デフォルトの名無しさん (ササクッテロ Spb3-Mv/o)
垢版 |
2018/10/22(月) 19:35:15.84ID:M3H01wI/p
>>866
物体検出、物体判別、位置特定は他の所でも出来るんじゃね?
その正確さとかが実用になるかどうかだろうけど
0869デフォルトの名無しさん (アウアウエー Sae2-6bZA)
垢版 |
2018/10/22(月) 19:59:52.03ID:8nbAtIu2a
>>868
それらを現実世界のロボットの動作に結びつけるのは難しい
あと口頭で指示も出せるらしい
0870デフォルトの名無しさん (アウアウウー Sa9f-BwMv)
垢版 |
2018/10/22(月) 22:45:23.68ID:IVZcl8cFa
PFNロボのアピールポイント:
・衣類の画像認識ができる(衣類、布は置き方によって形状が大きく変わるため難度が高かった)
・対象によって掴む位置、掴み方を変える(けん玉は棒の部分を掴むなど)
・日本語の命令に従い行動できる
・ラフな言い方、ジェスチャーを認識できる(指差しながら「あそこに片付けて」で認識できる)
・展示会の騒音、変化する照明環境で1日連続稼働できる
0871デフォルトの名無しさん (ササクッテロ Spb3-SqDF)
垢版 |
2018/10/23(火) 09:47:19.57ID:ruDoWt35p
どこもかしこも画像データを扱う事を前提として文章書いてるから嫌になってくる
0874デフォルトの名無しさん (ワッチョイ f323-UnLy)
垢版 |
2018/10/23(火) 10:59:29.01ID:2b6Tbph30
メリットが分かりやすい分野で教科書書いたら、参入者が増えるから先行者は嫌がるもの
0878デフォルトの名無しさん (ブーイモ MMd6-9TKK)
垢版 |
2018/10/23(火) 14:47:39.15ID:cio3imcuM
>>876
人の作った定石を覆す一手が生まれる可能性がある
0879デフォルトの名無しさん (オッペケ Srb3-6bZA)
垢版 |
2018/10/23(火) 14:51:30.72ID:gBK/KF1nr
>>876
人にしか出来ないと思われていた高度な処理が可能になった
0880デフォルトの名無しさん (ワッチョイ 7b23-T/6m)
垢版 |
2018/10/23(火) 14:53:00.00ID:yFsvvFWj0
ゲームで定石以外の手を打つAIはいるけど
脳外科手術とかで定石以外の手をAIに指示されて
実際その通りに手術出来る医者っているのかな
0882デフォルトの名無しさん (アウアウイー Saf3-AyP3)
垢版 |
2018/10/23(火) 19:11:15.08ID:BDP8ufz9a
全く同じ条件の学習が上手くいかなくなったんだけど原因は何が考えられますか
1回目やったときは70epochでvalのaccが.95くらいだったのに
2回目やったら1epochからずっとvalのaccが.65前後のままtrainのaccだけが上がり続けるから過学習してると思うんですけど
実行毎に過学習起きたり起きなかったりとかあり得ますか?
0883デフォルトの名無しさん (ワッチョイ f323-UnLy)
垢版 |
2018/10/23(火) 21:06:52.05ID:2b6Tbph30
重みの初期化はどうしてるの?
0886デフォルトの名無しさん (ササクッテロラ Spb3-V5Rj)
垢版 |
2018/10/23(火) 23:35:10.13ID:7LErHcLzp
データ分析の基礎的な部分をちゃんと身につけないとと思って統計の勉強始めた
学のある人なら当たり前に知ってる事なんだろうけど自分には知らない事ばかりで結構面白いって感じた
多分最初だからこう思うだけかもしれないけど
0887デフォルトの名無しさん (アウアウエー Sae2-6bZA)
垢版 |
2018/10/23(火) 23:44:40.12ID:EZC/vVVWa
>>884
特にディープラーニング関連は本になる頃には陳腐化してるからなぁ
ある程度基礎を勉強したらネットで解説記事とかトップカンファレンスの速報まとめとか有名な論文(の解説)とかを読むと良いかも
0890デフォルトの名無しさん (ワイーワ2 FFa2-T/6m)
垢版 |
2018/10/24(水) 14:10:20.50ID:wUNs4a59F
統計は高校で習ったから高卒「でも」充分理解できるもんだと思ってたが
最近の高卒は統計習ってないのもいるんだね
0891デフォルトの名無しさん (オッペケ Srb3-6bZA)
垢版 |
2018/10/24(水) 14:28:42.96ID:+JXZmafPr
>>890
統計っても機械学習だとロジスティック回帰とか主成分分析とかカーネル法あたりだろう
高校じゃまずやらない
0898デフォルトの名無しさん (ブーイモ MMf3-dYvX)
垢版 |
2018/10/25(木) 15:07:49.79ID:qGEaBy7DM
>>895
画像診断。下手な医者より優秀だろう
0900デフォルトの名無しさん (ワッチョイ 69a5-lMT5)
垢版 |
2018/10/26(金) 00:03:05.76ID:HAARiEj70
クラスタリングって教師ラベルがあるデータに対しても行うことってあるの?
職場の人が教師ラベルあるデータに対してクラスタリングするって言ってたんだけどそれは分類とは違うのかな?と思って聞いてたんだけど自分は知識がないから知らないだけで主成分分析みたいに探索的に何か見つけるために使う事も出来るのかな?
0901デフォルトの名無しさん (ワッチョイ 1d80-SUE8)
垢版 |
2018/10/26(金) 00:03:51.15ID:7cGNdWT70
アホたちは
いまのいんちきNNモデルをAIと呼称してんのか
0903デフォルトの名無しさん (ワッチョイ 9fc3-l/Wc)
垢版 |
2018/10/26(金) 05:58:52.27ID:xXrtI3FC0
ラベルが既知なのにクラスタリングっていうのは、聞いたことないしやる意味もないのでは。だってデータの距離空間が定義されてるのにわざわざ別の部分集合に割り当てる意味が分からんな。
次元削減なら分かるけど、クラスタリングなんでしょ?
0907デフォルトの名無しさん (アウアウエー Sa93-resC)
垢版 |
2018/10/26(金) 10:38:04.98ID:XMhrCttAa
>>906
学習の時は計算量かかるけど使うときは大した事ない
理論保証とブラックボックスさだと思う
0909デフォルトの名無しさん (ブーイモ MMa1-l/Wc)
垢版 |
2018/10/26(金) 15:26:11.38ID:6HAQawqDM
>>900
上の人が言うように、基本的にその場合クラスタリングとは呼ばない。クラスタリングは教師なしだから。

それで質問に答えるとしたらあるデータX(Xはベクトル)にラベルがあるとして、X以外のデータが入力されたときに例えばaとする。そのaとXとのユークリッド距離を測り(k近傍法)、どのx_iと近いのかを判定したりはする。
0914デフォルトの名無しさん (ワッチョイ 7d23-qsqE)
垢版 |
2018/10/27(土) 18:17:25.38ID:Rhmyt2K70
こういうのに最初に大金を出した人が美術史を作っていくのや
0920デフォルトの名無しさん (アウアウエー Sa93-resC)
垢版 |
2018/10/28(日) 11:39:15.80ID:EoM4jV8ha
>>913
わかる
0921デフォルトの名無しさん (アウアウエー Sa93-resC)
垢版 |
2018/10/28(日) 11:41:19.59ID:EoM4jV8ha
>>910
そのページ内で結論出てるやん
0926デフォルトの名無しさん (ワッチョイ 8db3-Rkh1)
垢版 |
2018/10/29(月) 06:28:46.79ID:kXYWj2tR0
>>795
>>792
>そこまで高いの買わなくても、
>サブ機に1050Ti積んでますけど
>inceptionv3の199層〜のファインチューニングでも
>32000枚を100エポック回して大体5時間で終わりますよ
>低価格でいろいろ試すには悪くない性能だと思うので検討してみてはいかがでしょうか。

ありがとうごさいます
そこそこのグラボ買ってみます
0927デフォルトの名無しさん (ワッチョイ 1bd2-e7ji)
垢版 |
2018/10/29(月) 08:06:16.95ID:62KNlyE40
↓これって日本版Kaggleみたいなもの?

https://signate.jp/competitions
0929デフォルトの名無しさん (ワッチョイ 0b9f-x3RP)
垢版 |
2018/10/29(月) 10:55:56.04ID:8gX7Io6i0
NNは最小限の構成から始めて
学習曲線を確認しながらレイヤー数を増やして複雑にしていくのが常道だから
まず3層ぐらいの単純な構成だとどうなるのか見るべきじゃないのかな
teratailの例を見れば少ないレイヤー数なら普通に過学習で見られる学習曲線なわけだし

いずれにせよどんなデータを使って何を分析しようとしているかもわからない
ネットワークの構成もわからないで学習曲線だけ出して的確な回答を期待する
というのも無理があるかと
0930デフォルトの名無しさん (ワッチョイ abe7-gZJR)
垢版 |
2018/10/29(月) 11:31:50.05ID:VxCr7qKV0
あらかじめ結論を決めておくのは意味が無くね
0931デフォルトの名無しさん (アウアウエー Sa93-resC)
垢版 |
2018/10/29(月) 11:38:09.69ID:tXMYusEla
でかいネットワークで学習するとむしろ汎化性能が上がるって説もあるよね
0932デフォルトの名無しさん (ワッチョイ 1d80-SUE8)
垢版 |
2018/10/29(月) 21:39:26.10ID:JGxixszg0
むしろ期待通りの結論に到達するように
学習させてるのがいまのウンコAIだからな
0934デフォルトの名無しさん (ワッチョイ 1d80-SUE8)
垢版 |
2018/10/29(月) 22:12:20.15ID:JGxixszg0
つまりオマエが作ったAIは
オマエより賢くなることはない
アホのまま
0937デフォルトの名無しさん (アウアウエー Sa93-resC)
垢版 |
2018/10/30(火) 02:23:18.40ID:82wxAJF9a
>>936
強化学習なんかだと、例えばゲームで人間の思いもよらない戦略を学習する事もあるし、スコアとかの客観的な評価軸もあるぞ
0938デフォルトの名無しさん (アウアウウー Sa5d-4VWk)
垢版 |
2018/10/30(火) 08:59:49.24ID:R0rHQSFYa
強化学習は報酬を与えるルールさえ決めれば後は膨大な計算コストがかかるだけで結果は決まっているわけだから作り手を超える賢さを得たと言って良いかどうかは微妙なところ
0939デフォルトの名無しさん (アウアウエー Sa93-resC)
垢版 |
2018/10/30(火) 11:21:40.67ID:82wxAJF9a
賢さとは
0942デフォルトの名無しさん (ワッチョイ 0b97-pfVs)
垢版 |
2018/10/30(火) 16:34:11.40ID:MWqKC0Xe0
本当に初心者ですけど質問です。
他クラス分類してて線形モデルを考えてるんだけどグリッドサーチしてCを出すプログラムを書いた。
そのプログラムを数回走らせると毎回違うCが出てくるんですがそう言うものですか?
ちなみにaccuracyはおんなじ値が何回も出てたまに低かったり高かったりします。
0945デフォルトの名無しさん (ワッチョイ 9fc3-l/Wc)
垢版 |
2018/10/30(火) 17:48:49.55ID:6RcW7/vQ0
>>942
プログラムがどうなってるか分からないけど(毎回乱数で変わる値をしようしてるとかあったら)、普通は何度実行しても同じ結果正則化パラメータCを出力しなければいけないと思うよ。
プログラムを見て乱数で設定してるところがないかを確認してみては
0948デフォルトの名無しさん (ワッチョイ 0b97-pfVs)
垢版 |
2018/10/30(火) 18:30:56.53ID:MWqKC0Xe0
>>947
研究で、もらったデータセットでやってるのでなんかおかしいのかなと思ってました。
irisのデータでも同じような挙動だったので関係なかったです。毎回違う値(振れ幅もバラバラ)なのは普通ということなのですね。
0951デフォルトの名無しさん (ワッチョイ 2385-UzDQ)
垢版 |
2018/10/31(水) 01:39:51.29ID:sES2GFEm0
機械学習知らん人に説明する度にAIって便利な言葉だと実感する
最適化じゃなくて学習とかクッソ曖昧な言葉で納得してくれて本当助かる
0954デフォルトの名無しさん (アウアウエー Sa93-QYDm)
垢版 |
2018/10/31(水) 06:41:10.96ID:pccA+Jbua
>>951
本当に「最」適かどうかは判らないんじゃね?
0959デフォルトの名無しさん (アウアウウー Sa5d-4VWk)
垢版 |
2018/10/31(水) 16:12:18.23ID:9rURn1wWa
そんなの椅子の認識のさせ方次第でどうにでもなるだろ
背もたれのある普通の椅子しか学習させなければ切り株を椅子と認識できるわけないが座れそうなものを片っ端から学習させれば何とかなる
0963デフォルトの名無しさん (アウアウエー Sa93-resC)
垢版 |
2018/10/31(水) 21:01:56.61ID:HmfWxI/4a
生まれて初めて切り株を見た人間でも、切り株に椅子としての機能を見出せるだろうけど、これは「座れそう」→「座れた!」という環境とのインタラクションがあるからなんだろうか
前にNHKの番組で東大の松尾先生が「体を持たない知能は存在するか?」的な事を言っていたな
0966デフォルトの名無しさん (オッペケ Srb5-resC)
垢版 |
2018/10/31(水) 22:18:31.69ID:P5/vr7Wfr
>>965
データがない未知の場面に出くわしても人間みたく持てる経験と知識を応用出来るかって話だろ
データさえあればって身も蓋もない話
0969デフォルトの名無しさん (オッペケ Srb5-resC)
垢版 |
2018/10/31(水) 23:07:24.47ID:P5/vr7Wfr
>>968
切り株はあくまでも一例だって>>961が言ってるやん
0975デフォルトの名無しさん (ワッチョイ 5a97-ErMb)
垢版 |
2018/11/01(木) 15:02:24.07ID:TL6Ac/Cx0
質問です
評価基準をaccuracyでやってるんですが、交差検証するたびに60%〜80%の幅で出ちゃうんですが、こういうときは例えば10回プログラム走らせて平均取るみたいな評価をすればいいですか?他に評価方法がありますか?
0976デフォルトの名無しさん (アウアウクー MMfb-umOF)
垢版 |
2018/11/01(木) 15:04:59.66ID:K++eZGijM
>>969
別に例なら切り株でもベンチでも何でも同じやがな
欲しいと想定される機能を実現するため相応のデータ(センサ)と学習は必要やろが
生まれつき視覚以外の感覚がない人間が椅子ばっかり教えられて果たして切り株に座れると思うかどうかや
椅子の画像データ学習させるだけでドラえもん作りたいくらい頭クルクルパーなこと言ってるの理解してるんか
0979デフォルトの名無しさん (ワッチョイ 4e08-ku0F)
垢版 |
2018/11/02(金) 07:26:51.97ID:R64W7CuQ0
質問です
人工知能用のPCを買おうと思っているんですが、
Linuxがベストとして
クソOSと言われているUbuntuでいいんでしょうか?
Fedoraのほうが評判良いですが・・・?
0982デフォルトの名無しさん (ワッチョイ 9723-VEUj)
垢版 |
2018/11/02(金) 16:11:27.17ID:ggr9EF3w0
Fedraの方が糞
0986デフォルトの名無しさん (アウアウエー Sa52-VrcX)
垢版 |
2018/11/03(土) 00:10:53.31ID:mBAfemi8a
>>979
無難なの選んどけばいいんでない
むしろ悩みどころはスペックとかどのライブラリ使うかとかでは
0991デフォルトの名無しさん (ワッチョイ a3d2-OMPP)
垢版 |
2018/11/04(日) 00:03:11.36ID:EyE9WGn+0
>>984
> んなもん買うよりawsかgcpで試してみたらいい。

横からスマンけど、研究費が無尽蔵にあるならaws、gcp、またはazure
でもいいけどさ、俺のように金がなくなってすぐ頓挫となるぞ?
データ入れて回してたらすぐ100万使っちゃうから。
PC買ったほうが絶対にいい。
0996デフォルトの名無しさん (ワッチョイ 769f-zz8P)
垢版 |
2018/11/04(日) 12:19:53.02ID:yioi4JUk0
てかgcpなら1日毎でいくらかかってるか見れるわけだし、とりあえず3万円分でやってみたらいい。
費用感を把握してからgpuハード買うってのでも別に遅くはないだろ。
0997デフォルトの名無しさん (ワッチョイ a323-VEUj)
垢版 |
2018/11/04(日) 13:37:21.91ID:5RY1Lh2I0
実際デプロイしたときに
実行前にプログラムスキャンして
あなたのアルゴリズムは最適化が足りません
提出しなおせとか
このまま実行すると少なくとも100万円以上になりますが
よろしいですかとか逝って欲しい
0999デフォルトの名無しさん (ワッチョイ a323-VEUj)
垢版 |
2018/11/04(日) 14:40:43.49ID:5RY1Lh2I0
ねむねむ
1000デフォルトの名無しさん (ワッチョイ a323-VEUj)
垢版 |
2018/11/04(日) 14:41:29.39ID:5RY1Lh2I0
うめうめ
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 88日 19時間 44分 52秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況