X



【統計分析】機械学習・データマイニング18
レス数が900を超えています。1000を超えると表示できなくなるよ。
0001デフォルトの名無しさん (スッップ Sd3f-sT+G)
垢版 |
2017/10/12(木) 20:21:31.89ID:dbH/cWyid

機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ

※ワッチョイ

■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング17
http://mevius.5ch.net/test/read.cgi/tech/1502032926/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured
0851デフォルトの名無しさん (ワッチョイ 8223-nHV3)
垢版 |
2018/02/14(水) 16:41:10.27ID:Fr7KgauA0
これ以上何回エポック回しても、中退じゃ無理だって学習してくれないみたいだし、
多分モデル設計が悪いのか、学習率上げ過ぎて重みの大半が死んでるんだろうな...
0856デフォルトの名無しさん (アウアウイー Sab1-rOxq)
垢版 |
2018/02/14(水) 22:43:46.96ID:NrdtujHNa
データが馬鹿でかければ影響はほとんどないといえるが
質問されている方の、
 >期間中の値は全て明らかなので
この質問をみた限り、データマイニングや機械学習をやる前に、
統計解析の基本を学ばないといけない。
0862デフォルトの名無しさん (アウアウイー Sa0b-FHqH)
垢版 |
2018/02/16(金) 11:04:30.52ID:miauY/vja
>>857
対象期間の全パターンを調べないとそうならないでしょうね。
パターンは無限なので、調べられないけど。
0864デフォルトの名無しさん (アウアウイー Sa0b-FHqH)
垢版 |
2018/02/16(金) 14:18:52.29ID:jq0LJPC+a
ですね
0866デフォルトの名無しさん (アウウィフ FF9b-kYbg)
垢版 |
2018/02/17(土) 10:15:14.52ID:LYzy673nF
goto main

わずか一行!
0867デフォルトの名無しさん (ワッチョイ 571e-MriG)
垢版 |
2018/02/17(土) 17:05:21.61ID:Sj5YqFBQ0
何枚紙貼ってんだよ
0868デフォルトの名無しさん (アウアウイー Sa0b-FHqH)
垢版 |
2018/02/18(日) 01:25:23.09ID:3+rUiy3ga
むかしむかしAPLという言語が有った
極端に短いコードが書ける、特殊な記号をつかうので
キーボードも見知らぬ記号が入ったものだった。
現在の言語より相当短くかけるが
メンテナンス性に問題があった。

それを思い出しちゃったよ。
0869デフォルトの名無しさん (アウアウウー Sa9b-ShsO)
垢版 |
2018/02/18(日) 09:49:13.89ID:H5WOBdkXa
>>868
昔情報処理試験にPL1という言語があったな。
でもなんでCOBOLってなんでまだあるの?
0870デフォルトの名無しさん (アウアウイー Sa0b-FHqH)
垢版 |
2018/02/18(日) 10:12:36.85ID:teSDACAba
プログラム作り変えるの金かかるからでしょう
0871デフォルトの名無しさん (アウアウウー Sa9b-C6Cf)
垢版 |
2018/02/18(日) 10:15:55.94ID:tYiGv8Zwa
>>869
銀行とかのシステムで使ってるからその保守要員には必要な知識
ただしそのうちシステムもCOBOLなんて使わなくなるだろうから新卒で銀行の保守にあてがわれてCOBOLしかできないような人は近々捨てられる運命
0874デフォルトの名無しさん (アウアウイー Sa0b-FHqH)
垢版 |
2018/02/18(日) 12:26:31.39ID:Vybr8GIla
=言語の歴史=

『PL/I』・『ケン・トンプソン』・『デニス・リッチー』

『C言語、』『UNIX』
の意外な関係。

なんてのがあったね。
PL/Iが無かったらUNIXは生まれなかったろうという。
0876デフォルトの名無しさん (アウアウイー Sa0b-FHqH)
垢版 |
2018/02/18(日) 14:18:24.96ID:Vybr8GIla
キーボードに
ドミノみたいな記号があったよね
0878デフォルトの名無しさん (アウアウウー Sa9b-ShsO)
垢版 |
2018/02/19(月) 07:21:28.50ID:mC9isHMVa
>>871
次はAI繋がりでおそらくpythonだろうな。
0880デフォルトの名無しさん (ササクッテロ Sp0b-IBe6)
垢版 |
2018/02/21(水) 08:50:35.80ID:nfKqWfVgp
良し悪し分類と種類の分類でどうニューラルネットワークの設計変わるんや

例えば料理だったら 美味そうか点数付けるのと料理の種類判別するのの違い
0882デフォルトの名無しさん (ワッチョイ 1731-1VRC)
垢版 |
2018/02/21(水) 17:51:52.84ID:GzA/Ajom0
>>879
> PL/MでなくPL/1を組み込みに使うなんてリッチな

MITのProject MACの内容、特にOSのMulticsについて調べてごらん

このOSは当時の最新最強の言語であったPL/Iで書かれたんだよ
そしてBell Labs.もこのプロジェクトに関わっていたが後に撤退し
その失敗の反省を踏まえてBell Labs.の連中が作ったOSがUNIX
つまり何でもできるようにしようとして規模がどんどん膨れ上がったMULTIcsに対するアンチテーゼとして
狙いを絞って軽量小型で反応も速いUNIxが生み出されたわけだ

ただしUNIXの記述言語のCについてはPL/Iから特に影響は受けた点はないと思う

C言語がどういった言語たちから影響を受けてどんな流れで誕生したのかも面白い話題だが
それはまたいつか気が向いたら書くかも知れない
0885デフォルトの名無しさん (ワッチョイ 1731-1VRC)
垢版 |
2018/02/21(水) 20:15:47.77ID:GzA/Ajom0
>>884
> お客さん >>882 はどうも、Multicsを組み込みに使っている

882が>>879へのレスでその879が「組み込みに使うなんて」と書いてるからと言って延髄反射で上のように揶揄レスをするのは
君自身の頭の悪さ、読解力の欠如をわざわざ自分から曝け出しているだけの行為だよ

879がなぜ突然にPL/Iと言い出したかを考えれば、879が狂人でもない限り、その原因は>>874

> 『PL/I』・『ケン・トンプソン』・『デニス・リッチー』
> と
> 『C言語、』『UNIX』
> の意外な関係。
>
> なんてのがあったね。
> PL/Iが無かったらUNIXは生まれなかったろうという。

以外には見当たらない。だから私の882は、その874で触れられていて879が反応したと推測されるPL/IとUNIXとの因縁を述べたのですよ。
879が「PL/Iを組み込みに使うなんて」と組み込みという言葉を急に持ち出したのは874で組み込みで広く使用されているC言語が出ているからだと推察できる。

なお、一言断っておくと、言語の名前として879のように“PL/1”と書く人も少なくないがこれは間違い、正しくは1のローマ数字を用いた“PL/I”だ。

884はもう少し議論の文脈をきちんと押さえてから反応することだね。でないと己の読解力の不足を示すだけのレスになってしまうよ。
0886デフォルトの名無しさん (アウアウウー Sa30-MRHR)
垢版 |
2018/02/22(木) 07:59:06.82ID:9dW6Z+Rva
>>882
MITは今Juliaだ。そのうちpythonにとって変わる。
0888デフォルトの名無しさん (アウアウイー Sa81-BFLd)
垢版 |
2018/02/23(金) 12:22:07.69ID:KI9HH4p8a
Juliaはこの10年近くAV界を席巻したな
将来性と言っても・・・・
0890デフォルトの名無しさん (アウアウイー Sa81-BFLd)
垢版 |
2018/02/23(金) 20:21:30.43ID:HXMF89cCa
>>889
あ〜〜〜
なんで覚えてんのや
0891デフォルトの名無しさん (ワッチョイ 969f-v/dL)
垢版 |
2018/02/23(金) 22:23:49.95ID:9i9I44Ng0
終わった
0893デフォルトの名無しさん (ワッチョイ 671e-POFq)
垢版 |
2018/02/24(土) 03:35:00.34ID:r5hKkD5Q0
qiitaは真面目な記事とゴミ記事の落差がありすぎる
0898デフォルトの名無しさん (ワッチョイ 671e-POFq)
垢版 |
2018/02/25(日) 04:02:17.51ID:LDn2NfHg0
コードの隠蔽が難しい
0901デフォルトの名無しさん (ワッチョイ 7623-q7wk)
垢版 |
2018/02/25(日) 18:22:37.79ID:251p5lsj0
>>900
ウイルス
0902デフォルトの名無しさん (ワッチョイ 6f99-oixV)
垢版 |
2018/02/25(日) 21:21:17.07ID:mbPsjSRo0
>>901
まともに開けるサイトだよ。
0907デフォルトの名無しさん (スププ Sd70-oixV)
垢版 |
2018/02/26(月) 07:17:19.11ID:7WwEQGrrd
>>906
何を学習させてるの?
0908デフォルトの名無しさん (アウアウウー Sa30-MRHR)
垢版 |
2018/02/26(月) 07:32:54.83ID:IuGyHUGLa
>>897
Juliaにしろ。
0918デフォルトの名無しさん (ワッチョイ 671e-POFq)
垢版 |
2018/02/27(火) 08:21:03.94ID:7rva7PWI0
kerasは抽象化進んでるからこまい部分いじろうとしたらtf
0921デフォルトの名無しさん (ワッチョイ 679f-lEE9)
垢版 |
2018/03/01(木) 10:34:42.63ID:bWNt6Hcx0
あるモデルの予測性能に低下が見られた場合
トレーニングに使ったデータが既に手元にない時は
何をもとにチューニングをすれば良いのでしょうか
0923デフォルトの名無しさん (ワッチョイ e71e-wl/W)
垢版 |
2018/03/01(木) 10:47:59.02ID:Ak0T+lzF0
解決しました。ありがとうございます。
0924デフォルトの名無しさん (アウアウイー Sadb-IhxS)
垢版 |
2018/03/01(木) 13:41:44.13ID:Bn8v5XdYa
>>921
トレーニングに使ったデータを用いた予測と
直近のデータに差が生じた。
=>トレーニングに使ったデータでは差が出る
=>直近のデータでチューニングする
じゃないの?
0927デフォルトの名無しさん (ワッチョイ dfb0-A4HH)
垢版 |
2018/03/01(木) 18:24:10.61ID:xzbWV/bR0
オンライン学習でいいんじゃないの
トレーニング用のデータはない、新しいデータもない場合は無理な話だけどバリデーション用のデータがあるから性能評価できてるんだろうし
0928デフォルトの名無しさん (ワッチョイ 67b3-5maD)
垢版 |
2018/03/01(木) 19:25:38.83ID:uaEM6B4d0
サポートベクター回帰について質問があるんだけど、
ここでいいの?
0929デフォルトの名無しさん (アウアウイー Sadb-IhxS)
垢版 |
2018/03/01(木) 21:46:38.46ID:AKu5M211a
>>927
新しいデータがないとすると
チューニングが必要かどうかも
分からないと思うんだけど
0930デフォルトの名無しさん (ワッチョイ 679f-lEE9)
垢版 |
2018/03/01(木) 22:57:30.16ID:bWNt6Hcx0
オンライン学習を使わない場合は
モデルを継続的にメンテナンスするのに
モデル作成時とそれ以降のトレーニングデータを
延々と保持し続ける必要があるということ?
実務ではどうやっているのだろう
0931デフォルトの名無しさん (アウアウイー Sadb-IhxS)
垢版 |
2018/03/02(金) 00:05:23.29ID:2VXIKrxEa
時系列的に変化してゆくものなら
初期モデルを保持する必要はないでしょう
初期状況がスタートになるデータと、
そうでないデータがあるなら
両者保持してそれぞれに適用する。
後者は動的に変化させてもいいし初期を引きずる
必要もない。

ま、置かれた状況に寄りということになるでしょうね。
0932デフォルトの名無しさん (アウアウイー Sadb-IhxS)
垢版 |
2018/03/02(金) 00:11:29.37ID:2VXIKrxEa
ロバスト性の維持を必要とするかしないか
今のAIはその辺りの思考は適当かもしれない
0933デフォルトの名無しさん (ワッチョイ 071e-wl/W)
垢版 |
2018/03/02(金) 01:49:20.06ID:ebZcAzDQ0
CNTKってどうなん?
0935デフォルトの名無しさん (ワッチョイ 679f-lEE9)
垢版 |
2018/03/02(金) 08:10:24.81ID:4WDSbwMd0
例えば手書き文字認識で最初に1万件のトレーニングデータで判別モデルを構築
その後新たに2万件のデータが入手できてそれをモデルに学習させるという場合
合わせて3万件のデータで適切なパラメータを探してテストしてモデルを構築することになるのかな

これはモデルを新しく構築するのと変わらないように思えるけど
つまり「学習≒モデルの新規作成」ということなのかな

これを続けるといずれはリソース不足になるけど
それを防ぐために最新の3万件を使ってモデルを構築するしくみにすると
切り捨てた古いデータから得られた知見はモデルに反映されないということになるのかな
0936デフォルトの名無しさん (ワッチョイ 67b3-5maD)
垢版 |
2018/03/02(金) 09:04:33.85ID:y8jT/VpV0
サポートベクター回帰のことで質問。
目的関数や判別関数のなかにΣ(a-a*)っていう項がある。
a*は何を指していて、どうやって計算すればいいのだろうか。
ひょっとして、回帰曲線より上にあるデータに関してはaを計算し、
下にあるのはa*を計算するっていう風にするのかな?
もしそうだとすると、学習中は回帰曲線が変化していくのに合わせて、
aかa*かを変えていくってことなのかな?

実際の数式は、例えば↓のP.11
ttp://datachemeng.com/wp-content/uploads/supportvectorregression.pdf
0937デフォルトの名無しさん (スップ Sd7f-mqjH)
垢版 |
2018/03/02(金) 09:11:06.56ID:1juFpgM6d
>>935
オンライン学習だね
ディープ系だとあとから追加された教師データの影響が限定的な気がする
あとから追加された教師データで別のモデル作って、旧モデルとのアンサンブルを蒸留したほうが実用的には良い気がする
0940デフォルトの名無しさん (ワッチョイ 071e-wl/W)
垢版 |
2018/03/02(金) 13:47:26.85ID:ebZcAzDQ0
いつのまにかkerasがCNTKに対応してたんだけど、やっぱりwindowsだとCNTKのほうが相性よかったりするんだろうか
レス数が900を超えています。1000を超えると表示できなくなるよ。