【統計分析】機械学習・データマイニング19
■ このスレッドは過去ログ倉庫に格納されています
機械学習とデータマイニングについて何でもいいので語れ若人
※ワッチョイだよん
次スレ立ての際は、一行目冒頭に
!extend:on:vvvvv:1000:512つけてね
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング17
http://mevius.5ch.net/test/read.cgi/tech/1502032926/
【統計分析】機械学習・データマイニング18
http://mevius.5ch.net/test/read.cgi/tech/1507807291/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured >>193
最近の流行は前者ですね
1000サンプルでは全く足りないと思いますが >>193
特徴量間とか言って体重以外にどんな特徴があるかわからんし何させたいのかわからんからなんとも言えない気がする。 話をぼやかすのはいいけど大事なとこも飛んでるんじゃないか >>195
ありがとうございますその方向で始めてみます
>>194, 196, 197
すみません例えが悪すぎました マイクロソフト、FPGAを用いたAI処理基盤「Project Brainwave」開発者向けプレビューを発表。GoogleのTPUより高性能と。Build 2018
https://www.publickey1.jp/blog/18/fpgaaiproject_brainwavegoogletpubuild_2018.html >>201
話を聞かないだけで裏で動いてる
大半の人は使ってるよ 試用期間だけ使って放置してたら営業から電話かかってきて乗り換え先聞かれたよ
あんまうまくいってないんだと思う >>200
ニコニコドワンゴのFPGAはどうなったんだっけ?
断念したんだっけ? >>201
あんたが知らないだけ。
今のMicrosoftは、WindowsやOfficeじゃなくてクラウドの会社。 千葉 雅也『勉強の哲学 〜来たるべきバカのために』は、昨年度の文系書籍部門ベストセラーだったけど買わなかった。
さっきなんとなく立ち読みしたら、機械学習的発想だった。「バカになれ」とは「全体を見ないで専門バカにならないために、適当に勉強を切り上げて、
次の流行に次の流行に…と軽薄にやりつつ、試行錯誤の経験を蓄積するためにバカにされることを恐れずにイタイ発言とか作品発表とかもどしどしやろう」っていう事らしい。 まあおそらく、全ての知識は陳腐化するから全ての人はバカになる。だから、バカを極めた超バカは超賢いに?!? さっきインスタンス死になりかけた。
ギリギリ、ランチのフランス料理にいいワインつけてデザートとった程度で気が付いた。 >>210
面白そうな人だね
プログラミングでいえば、
C++ の求道的な道には見切りをつけて、javascript ruby, php, らの流行のフレームワークを追いかけつつ
糞なプログラムもどんどん書こう、
ということですか 過去のAIブームと同様に機械学習ブームも早晩終わるわけで、根底にある統計学的な理論を理解しようともせず
ブラックボックスのパッケージ使うだけの人はこの機械学習ブームからは何も学べていないに等しいと言える RDBMSの理論的背景を知らなくたって、ただblogサイトを作るために(Wordpress等のために)MySQLを使うことはできる。
機械学習のプロダクトも簡単なものから順に日用品化していくよ >>215
日用品化していくからこそ、それを単に使えるだけという能力には徐々に価値がなくなるので背景の理論の理解が必要ということ ニューロファジィ洗濯機とかあったな
あのブームは何故終わったんだろう 基本的にAIと呼ばれたものが一般に広まって当たり前に使われるようになれば単なるアルゴリズムの一種としか見なされなくなるから過去のAIブームの産物も消えたようでこっそり生きている
ただAIと呼ばれることがなくなっただけ >>210
一つの学習器だけ使ってると過学習するから弱学習器をいっぱい積み重ねた方が汎化性能良くなるよ、って話かな。
人間としてどっちが上等とは一概に言えない気もするけど。 たしかに人間も過学習で馬鹿になった人をいっぱい見かける >>217
最高性能を追求するならそうだけど、SOTAの8割の性能でいいから自動化したいみたいな用途なら出来合いのお任せでも十分 >>223
労働者目線では出来合いのおまかせなら誰でもできるわけで給料が上がりづらいので、
理論を体系的に理解した上で各時代の最先端(その時点では簡単に出来合いのものを、というわけにはいかないもの)が扱えなければならない 年を負う毎に技術が高度化しているから、技術格差が所得格差に繋がるのは必然でしょうね。
昔は、スタンドアローンのスクリプトが書けるだけで、月に200万円も貰えた時期がありましたが、
今じゃ、学生さんやお年寄りでも、使える人がいる。一方で、今でさえ、それすらできない人もいる。 現状こんなところ
システムを使うだけのオペレーター:年収300万円(AIに取って代わられる可能大)
ライブラリーを呼び出して使うだけのエンジニア:年収600万円(今はIT人材不足だが、将来的には単価下落の方向)
そのライブラリーを作れるエンジニア:年収1000万円(技術力を更新できれば、単価維持も可能)
オリジナルの技術でビジネスモデルを構築できるエンジニア:年収1000〜∞万円 >>229
>いずれ壁にぶつかるよ
それは、オマエの狭い狭〜い了見からの思い込みにすぎない。
壁にぶつかるか、壁を突き抜けていくか。壁を突き抜けていくと考える研究者の方が多数派。
最近のトップカンファレンスでの発表を見聞きしていると、その確信が深まる。 >>229
ただ氷河期があるだけだよ。今のブームが終わると次は10年以上先に第4次AIブームがくるだろう(たぶん、きっと) >>232
NIPS、IJCAI、ICML、ICANN・・・
e.g. GANs in ICANN2017 壁を打ち破る理論が出るのが早いか
投資家に見放され、陳腐な技術に堕ちるのが早いか 機械学習は進歩早いからオリジナルの技術って言っても何かに利用しましたっていう部分しかない。
ネットワームモデル自体の研究は研究者の仕事だ 競艇とか競馬の着順予想って順位を予測するのが多いのかな?
タイムのほう予測できない? 👀
Rock54: Caution(BBR-MD5:8f50f269c4f2853ecd0dfe9a88a1b798) つうかただのPGはどの分野でも400が相場だろ
500以上は管理職クラスだ プリンターのお守り
テープかけ
カード読まし
バブル期最低のハイテクバイト >>246
流行の最先端を走ってるPGなら800はいける
米国なら青天井 >>249
>流行の最先端
今の最先端はなんですか? 今の労働市場で、PG400万円って、よほどこき使われているだろw
東京の話だが、600万円が中央値。フリーのPGなら800万円程度。 元請けはそのぐらいかもしれないけど、首都圏でも下請けには人月80万ぐらいで発注するから
手取りがその半分だとしたら500万ぐらいになると思う
あと、フリーで800でも年金と保険料が自腹だと、実質400〜500の社員と変わらない 売り上げ計算するより求人票見れば相場すぐわかるから >フリーで800でも年金と保険料が自腹だと、実質400〜500の社員と変わらない
800万円程度の年収で、年金と保険料で300〜400万円???
いい加減すぎだろww サラリーマンには、サラリーマン(給与所得)控除があるから、
年収800万円でも、所得は500万円以下になる。
高年収のサラリーマンでも、ほとんど税金を払わない
大多数のサラリーマンが税金を払わない分だけ、
少数の自営業者が払うから、1人当たりの税金が異常に高い
年100万円以上違うから、30年で3千万円以上違う。
だから自営業者は家を買えないけど、サラリーマンは家を買える
少数派から搾り取っても、選挙で勝てるから、めちゃめちゃしよる。
老人が多いから、選挙で勝つために、年金収入も、ほぼ無税にしてる
主婦(配偶者)控除も大きい。
ほぼ無税になる
これら多数派の税金を、少数派の個人事業主が払っている
年収8億のゴーンもサラリーマンだから、
サラリーマン控除で、ほとんど税金を払っていない
こういう職業差別の身分制度を作っているから。
選挙で受かるために、多数派を無税にするから、その分少数派の負担が大きすぎる
個人事業主は選挙で、10票分以上持っていないと、
老人・主婦・サラリーマンの多数派に勝てない 家買えないほど格差があると分かっていてその点が重要なのなら自営業などやめればいいだけのこと TensorFlowで機械学習デビューしたいんですけど、何かおすすめなカリキュラムありますか?
ゼロから作るDeepLearningは読了しました
理解したかと聞かれると微妙な感じですが… NICでも作ればいいんじゃない?
仕組み単純だし、GPUないときついけど 自然言語処理でコーパスって言葉が出てくるのですがこれはテキストデータの集合体を指すのかテキストデータを加工して名詞に分けたりしたものの集合体を指すのかどちらなのでしょうか? >>260
回帰系・自然言語系なら、詳解ディープラーニング
TFとKerasのコードが載っていて分かり易かった >>272
今流行ってるのはなんですか?
なぜゼロから作るDeepLearningに紹介されているにですか? 原理が難しいアルゴリズムは研究が進まないからどうせ流行らん 流行る・流行らないは結果が全て
機械学習で言えばより簡単により正確な結果が得られるなら流行るし、そうでないなら流行らない
どうせ流行る・流行らないを決める側の人は原理など理解していないので難しいかどうかは重要ではない 流行関係無く研究させてくれるならコホーネンをやるですよ。 今回の流行は、素人でも統計解析のライブラリを呼び出すコードを
つなげればなんかAI、機械学習!の研究が(手軽に)出来るじゃん
見たいな幻想が根底にあったと思うので
簡単さは流行の一要因だったと思う 初心者ですで頭おかしいこと言ってるかもしれませんが質問に答えて下さい
損失関数の極小解を出すためのアルゴリズムに確率的勾配降下法などがありましが、今主流なのはなんでしょうか?ライブラリはTensorFlowを使う予定です >>288
答えて下さいよ
勉強足りないのは自覚しています >>287
SGDは損失関数(loss func)じゃなくて最適化関数(optimizer)な
数式ちゃんと理解しないと学習率の調整が出来ないから、全部ちゃんと調べる様に 結局、バックボーンとなる数学的な理論を理解しないと何もできないんだよな。
ライブラリーはあるけど、使うだけなら、パラメータをチューニングするだけなら、
Excel使いと同じレベルだし、技術者でも何でも無い。
AI技術者とかいって客に高い単金を要求しているが、
普通のJavaとかphpのプログラマ未満の技術力しかない。 ■ このスレッドは過去ログ倉庫に格納されています