【統計分析】機械学習・データマイニング19
■ このスレッドは過去ログ倉庫に格納されています
機械学習とデータマイニングについて何でもいいので語れ若人
※ワッチョイだよん
次スレ立ての際は、一行目冒頭に
!extend:on:vvvvv:1000:512つけてね
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング17
http://mevius.5ch.net/test/read.cgi/tech/1502032926/
【統計分析】機械学習・データマイニング18
http://mevius.5ch.net/test/read.cgi/tech/1507807291/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured 理由ちょっと考えてみたけど
まばたきとか目線とかかな あんな前時代的な町工場的ハイポリモデルはほとんど無価値だ 最近、AIはパーセトロンが〜とか、
活性化関数が〜とか、
AIは脳をモデルにしてるから〜とか、
言い出す輩が減って正直嬉しく思ってる。
生態モデルが最適なモデルかどうかはそもそも立証されてないし、
NNは生態モデルと言えるのであれば、
既存のシュミレーションである有限要素法なども、その動作原理の類似性(例えば有限要素法もただ関数の係数の重みを計算してるだけ)から生態モデルと言えてしまう。
雄一解と解の収束性が保証されている点で全く性質が異なるのに。 昔から人工ニューラルネット、工学モデルと言われているがw ローゼンブラットがパーセプトロンを発表したときに何に着想を得て作ったかという話でしょ 「学習」だと知性があると勘違いしてしまうので、
「フィッティング」とか他の言葉で表現してほしい。
AIを紹介するテレビ番組を見てると特にそう思う。 >>14
フィッティングだけでも「学習しない馬鹿な人間」よりも上だったりするからな 究極を言えば人間も筋肉を出力とした誤差関数のフィッティング 人差し指にすこ〜し力を入れるだけで人生が大きく変わってしまう現代でなにいってだ? 目先のお金のために騙すようなことすると、実は大したことやってないとバレた時に信用を失うよ。 2つのデータセットがあって
両方混ぜて学習させるのと片方学習してからもう片方では結果はかなり違う? 進歩はやい分野で昔作ったものをたいしたものじゃなかったと言われても困る 特徴量Xの選択や出力Yの確率分布関数の選択は人間がやっているのに、
それを明確に伝えずに「学習」とだけ素人に言ってしまうと、そこに人間の意志は介在しないと受け止めてしまう。
わかってて伝えていないとしたら、不誠実だよね。 >>41
いやいや14の意見は機械学習の動作原理よく理解していればまともな意見だと思うけど 囲碁将棋でAIに全然勝てないから、俺達の方がバカってことでいいよ 機械学習は単なる統計学の
発展した形っていうのが実情だろよ 『ゼロから作るディープラーニング』のアマゾンレビューを久々に見たが
低評価が目立ってるな…。
あとゼロから作る自然言語処理をテーマにした続編が出るそうだ。 あれは良書だと思ったけど
ハードルを低くしたから変なのが評価しているのかも あーRNN(LSTN)方向にいくんか
kerasでDNNとZQNがよかったな インターフェース 2018年5月号 買った人 or 見た人 いる? 学習用作成したデータの標準化って、要素単位でやるんですよね
配列全体をひとまとめに標準化するんじゃなくて 次元です(体重、身長、性別(ダミー))とあった場合
体重は体重だけで標準化、身長は身長だけで標準化、ダミーはそのまま
に加工すればいいという感じでしょうか 計算は要素単位だろうけど標準化は配列全体をひとまとめに扱わないと無理じゃね 黒木玄 Gen Kuroki
@genkuroki
#統計 #Julia言語
#機械学習 の話を調べると、過学習を防ぐために「適当なところで最適化過程を止める」のような「極めて怪しいこと」(笑)をやっているようです。
その「極めて怪しいこと」(笑)の様子を単純なモデルで見てみたかったので、動画を作ってみました。
添付動画は n=64, d=3 の場合
https://twitter.com/genkuroki/status/977913862560165888/photo/1
#統計 #Julia言語 動画1つ当たりの作成時間は約12秒です。
https://gist.github.com/genkuroki/c440bc748ba230921c1a1f3613053b21 …
http://nbviewer.jupyter.org/gist/genkuroki/c440bc748ba230921c1a1f3613053b21 … >>67
過学習なんて、倒立振子の時代から問題になっていましたよ‥別に新しい話題ではないね‥ >動画1つ当たりの作成時間は約12秒です。
頭に浮かんでから12秒なら凄いけど 機械学習における過学習は、機械学習が出てきたときからあるし。
過学習として考えれば別にこの50年で出てきた話題でもない。
スゲー昔からの話 overfittingの歴史ってどこから始まってるの? 坊やがまだパパの金玉の中で尻尾振って泳いでいた頃からさ カスゴミの異常なまでの噛みつき方は過学習の結果かもしれんぬ >>86
それぐらいディープラーニング普及してるかな?
まあど素人の俺がtensoflowやchainerやkerasいじっているんだから結構普及しているのもな? 「天才」年収1億円で採用 ゾゾ、先端技術の人材募集
http://www.sankeibiz.jp/business/news/180402/bsc1804021958007-n1.htm
AIやビッグデータ処理、ロボット工学といった技術系を中心に、博士号取得者、研究員などから
年収1千万〜1億円の「天才」枠は最大7人。年収400万〜1千万円の「逸材」枠は最大50人
ゾゾの社長ってこの前62億円の絵画を買った人 ちょっと前に
DeNaが儲かっているからってそこに就職するような層が
飛びつくんだろうな >>92
新興のIT企業の場合そもそも永久就職する前提で就職しない
数年で成果上げて次の職場に進むか起業すればいいから就職先は今さえ儲かっていれば特に問題ない 機械学習がいくら人工知能だと持て囃されても
結局は全部誤差関数を最小化してるだけでベイズ推定とか線形回帰から進化してないんだよな まあ、機械学習が人工知能というわけじゃないわな。
機械学習を利用して人工知能を作ったというだけで、人工無能もつくれる。 ディープラーニングよりも
線形関数のほうで解決出来るケースが
多い気がするのはワイだけ? 問題設定によるとしか
画像音声自然言語は無理じゃね >>98
だいたいはそう
しかし事例はまれだか重要なレアケースを拾えなくなる ■ このスレッドは過去ログ倉庫に格納されています