【統計分析】機械学習・データマイニング17 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング16
http://mevius.2ch.net/test/read.cgi/tech/1498493352/ 常駐してるTFアンチかよ、レスするんじゃなかったわw >>586がTFアンチに見えるとか病んでるのか?
俺はTF以外使ってないんだが... >>586
普及度の違いがこのスレで認識されるようになったのはごく最近だから。トレンドとかが提示されるまでは、信者の煽りを真に受けて拮抗してると誤解してた人が目立った。 やっぱりこのスレでは普及してないと話題にもしちゃいけないんだな
気を付けよ TF以外のネタだと荒れるとか、やっぱりTF専用スレだな
スレタイ変えるかテンプレにTF以外の話題禁止って書いとけよ >>586
普及度が高ければより多くのライブラリーなり関連製品が開発される
それらを利用して更に先進的な研究が行われる tensorflowってもしかしてcudnn 7だと動かない? >>530
Winのみの時点で本気も糞もない
ノーサンキュー opensourceなんでしょ?
linuxでビルドすればいいじゃん 366 :nobodyさん 2017/05/29(月) 16:07:39.16 ID:6v4UcGhE
今回の民法改正、ソフトウェア受託開発の場合、(検収後ではなく)バグ発見後1年瑕疵担保責任があるということで、地獄かよ、と思ったが、
元々問題が起きがちな受託案件がビジネス的に成立しなくなることで強制的に業界再編につながるなら良いことかもと思うようになった。
一部で地獄を見ても。
https://twitter.com/yukihiro_matz/status/869061879389343744
367 :nobodyさん 2017/05/29(月) 16:28:06.55 ID:6v4UcGhE
ニュース - 改正民法が成立、「瑕疵担保責任」などシステム開発契約に影響大:ITpro
http://b.hatena.ne.jp/entry/itpro.nikkeibp.co.jp/atcl/news/17/052601508/
372 :nobodyさん2017/05/29(月) 19:10:37.12 ID:???
Railsでシステム作って納品する
↓
Railsはマイナー、メジャーのアップデートが半年以内に必ずある
↓
客がアップデートする。アップデートによるエラーやバグ、動作の不具合に気づく
↓
気づいてから1年以内に通知すれば、5年間無料保証ゲット
↓
つまりRailsがアップデートするたびに、無償の修正作業を発生するということかな
376 :nobodyさん2017/05/30(火) 09:20:20.09 ID:L5po86sS
>>378>>379>>375
客が瑕疵担保責任法の法改正を知ってくると思うから、今後5年無償保証をお願いされるだろう
営業がそれでも仕事を取ってこれるか?たぶん無理だろう。無限の直していたら赤字になる。
こういう保守に弱い言語、ころころ仕様が変わる言語は仕事として発生しなくなってくる。
これは変わり目だ。お前らも早く逃げたほうがいいぞ。RubyやPHPなど動的言語は確実に廃れる。
保守に強い言語のみ生き残れる。 瑕疵担保責任(かしたんぽせきにん)
瑕疵担保責任のポイント
民法改正で事実上期限が「無制限」になった
バグや設計のミスなどは、瑕疵担保責任
納品物に不具合があれば損害賠償を請求される可能性もある
不具合を指摘されたらすぐに行動をとるべし
軽微なミスでも先延ばししない
http://www.atmarkit.co.jp/ait/articles/1706/26/news014.html
http://itpro.nikkeibp.co.jp/atcl/news/17/052601508/?rt=nocnt
改正法では欠陥に気付いてから1年以内にITベンダーに通知すれば、
通知後5年以内は修正や報酬の減額などを求められるとしている
全ベンダーが泣いた民法改正案を解説しよう その1
http://www.atmarkit.co.jp/ait/articles/1609/14/news009.html
http://www.atmarkit.co.jp/ait/articles/1609/14/news009_2.html
http://www.atmarkit.co.jp/ait/articles/1609/14/news009_3.html
ポイント1:修補や損害賠償、契約解除の期限がなくなる
従来あった「瑕疵担保期間は引き渡しから1年」という考えはなくなる。
条文にある通り、注文者は成果物が契約の目的に適合しないことを発見したら、
その「発見したときから1年以内」ならさまざまな請求ができる。発見が10年後なら、
11年後まで請求可能なのだ。
もっとも、現実のユーザーとベンダーの関係でも、たとえ契約書に「瑕疵担保責任期間は納品から1年と」明記されていても、
「2年目以降は不具合の修正に対応しない」と主張するベンダーはまれだ。多くの場合は、納品から何年たっても、
バグが見つかればユーザーのところに飛んで行き、無償で改修するだろう。 tensorflowを使ってみた
なるほどtensorboardを見ると
大きなことをした気になるんだろうな cifar10をdeep_cnnで画像認識させるtensorflowのチュートリアルあるじゃん
そのままのプログラムコード用いるときにGPUメモリ4Gでメモリ足りる? >>608
コピペご苦労さん。
長文なんて誰も読まないから
最後の一行だけで十分。これを理解出来ない学生さんは死んでほしい ディープラーニングという言葉は、全結合NNや手動で調整した入力層のNNに対しては使われない? MATLABに機械学習関連のライブラリがあるみたいだけど使ってるやついる?
Statistics and Machine Learning Toolbox
Neural Network Toolbox
とか
いたら使い勝手教えてくれないか
なんせ金が掛かるんで気軽に手が出せない >>615
全結合NNが超多層でよく動くように改善したものがディープラーニングだ
全結合のまま超多層で動かすことができればディープラーニングだが、今のところそういうことはできていない
メモリー使用率の高さもあり、現在顧みられていないが、もしできるようになったらそれは新発見になる
頑張って探してみるのもいい 優越コンプレックスを拗らせてるやつが約1名くらいいるな 層とノードと認識率って相関無いのかな?
総当たりでトコトンやるしかない? 全結合ってMLPか?
素直にCPUでやったほうがええで 京大と一橋・東工大が完全に並ぶ [無断転載禁止]©2ch.net
http://leia.2ch.net/test/read.cgi/poverty/1505750640/
そういえばAIは京大の出遅れが目立つよね
京大卒より 安心しろ、日本の大学なんてスタンフォードやMITよりだいぶ下。香港大より下だろ そういや、中卒も高卒も大半はフリーターやら工場やらで働くんだろ?
大学に進学しない人にとって高校なんて出る意味あるんかな・・・・ 高認取って放送大学卒→武蔵野美術大学通信課程卒のオレ >>640
いや全然それでいいと思うよ
少なくとも高卒で思考停止のままダラダラ働き生きるよりはさ
「足りない経験は気持ちで凌駕する」 >>350
お前が見えてないだけ。有名どこしか追えてない無能さを曝け出してるなあ。 情報処理学会のインパクトファクターってどこに載ってるの?
電子情報通信学会にインパクトファクターあるのは知ってるけど 深層学習学べるのは東大、東工大、京大、早慶までだろ F欄で教える数学って中学高校の教科書の復習だからねw connpassなどの機械学習系論文読み会で発表してるのは旧帝大と早慶出身者だわ
それ以下は英語の論文にお手上げなんだろ >>656
そんなもんに参加するのは一部の人たちだけだわw でも不細工ばっかしだから参加する気になれねえんだよなあ ソフト製造とかのバイトさせると、
東大生は薀蓄は述べるけど実物は全然できず、
東工大生はすぐに着手して現物をさっさと作り上げてくるって
とある人が言ってた
ひとりの人から見た一部の人間の比較だから、ほとんど意味ないけど、
大学の名前だけで判断する(しかも馬鹿にする)ようにはなりたくないな
(東大と比較してる時点で名前で判断してるというのは置いておく) 流れ読まんが、ニューラルネットも深層学習も仕組み自体は、かなり簡単なんだね ニューラルネットの実体とは、パーセプトロンの各重み(バイアス値)の配列。
数学的な問題定義において予測関数となる部分における計算式がパーセプトロンの結合を指す。
機能で捉えるなら、ニューラルネットは、まさにある一つの目的(特徴や診断、判定、認識)を遂行する関数を指し、複数の判定には、個別のニューラルネットを必要とする。
複雑で判定要因が多岐となる目的を単一のニューラルネットで実現するには、アホみたいな階層と入力を持ったニューラルネットを構成して、学習させる必要がある。 >>666
パーセプトロンって線形分離しかできないんじゃなかったかな? 深層学習とは、ニューラルネットをマルチ令やに連ねたもの。
単純に連ねるだけだと、単なるパーセプトロンの結合階層を連結しただけになる。
ここまでは理解した。
もうちょっと勉強してくる。 >>667
出来ないみたいだね。
ただ、俺の理解だと、ここはあまり重要じゃないように見えた。
たまに論理回路に例えるが、その線形分離こそが必須要件かなーと。単なる勘。
パーセプトロンが考えている訳でもなく、こいつは、そのあたりのなんかを切り捨てることが役割。
画像認識のニューラルネットは、入力端子が画素数となる。1920x1080ならその積が入力数になるとか ぶっちゃけ、ディープラーニングに必要なのは、ビッグデータじゃない。
目的最適なニューラルネット、パーセプトロン結合の洗いだしと分類、研究だろうと思えてきた。 >>670
「必要」というのが具体的に何に対してなのかによるでしょ
ディープラーニングを利用した金儲けに必要なのはビッグデータ
研究成果の理論は公開されるけどビッグデータはマニアックなものになればなるほど特定の組織でしか入手できないものになる >>671
ディープラーニングの利点の一つは、限られた訓練データで偏在しない特徴を与えることで、必要充分な学習を果たす。
沢山あっても偏るならば、それはゴミや学習を阻害する。
必要なのは。ビッグではなく特異なデータじゃないのかと。
だから、プライバシーや他人のハードディスクを欲しがる。 >>666
長い。
本質を理解してないと思われる。
NNの実態はただの関数 >>673
iD変わってそうだが、
まだ本質には至れていないのは指摘通り。
だが、ただの関数と切り捨てるのは思考停止といい放っておく。 >>674
線形結合の係数を最適化法で求めるやり方は、別にNNに限らない。
ある関数を基底関数の線形和で定義し、その係数部分を評価関数が最小になるように求めるやり方(あるいは変分原理、最小エネルギー定理)には、カーネル法、有限要素法、第一バンド計算、最小レギュレータ、カルマンフィルターなどがあり、元はほぼ同様の方法と言える。
パーセトロンモデルは、別に特別なモデルではない。(そもそもパーセトロンモデルがマネてる生物モデルが優れているという証明は存在しない。政治的にそう説明しておくとすげえと思われやすいだけ) あえて特殊なところを上げるとすれば、CNNにて各種のフィルターを通しているところ。
サイズの違う相関関数を挟むことで特徴の差を捉えることができてる。 DLにて>>676の特徴があまりクローズアップされないのは本当に残念 ちなみに>>675に上げた事例はレイリーリッツ法と呼ばれるものに相当する。 >>679
違うかも知れんが、フーリエ級数も似たものを感じた。 数年ぶりにこのスレ来たけどひどくレベル落ちてるね
MLであらゆるものが自動化されると謳いまくる社会が問題だろうけど まぁ数年前と比べて論文増えるスピードが尋常じゃないし最先端追う奴はいちいちここで話題出す暇もないからな
質問スレ化するぐらいでちょうどいい 日本は残念ながら高卒だらけの国で、人工知能とか流行りの技術があると高卒が押し寄せてコミュニティーを潰しちゃうんだよ 松尾研でスタートアップ数十社作るとか講演してたような
能力有れば企業の下僕で働くより起業だがこのスレの高卒には関係ないか 松尾教授は女性秘書2人いるもんな
助手じゃなくて秘書がw ここって、どうして学歴に持って行きたがるのが多いんだろう?
ニューラルネットの未解析な部分が低学歴による追い越しに恐怖して、叩いているように見える。 スレチになるが、研究は、学歴には依存しにくい。
だが学力は、アドバンテージになりえるが、それは先人の遺産を受け継いだだけで、本人の才能と努力に対しては誇れるものと言い切れることじゃない。
教授の研究成果を受け継いだだけで、それは本人の努力はあるが、最適化して引き継いだだけのこと。
なんたな ■ このスレッドは過去ログ倉庫に格納されています