【統計分析】機械学習・データマイニング17 [無断転載禁止]©2ch.net
レス数が1000を超えています。これ以上書き込みはできません。
機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング16
http://mevius.2ch.net/test/read.cgi/tech/1498493352/ ★chainerがこのスレでは一番優秀と評価されています。 Pythonではじめる機械学習という本でのk-最近傍法というのは自身に一番近い点が属すクラスに
属すようにするアルゴリズム(n=1の場合)です。n=3の場合には、自身に一番近い3点を考え、
3点のうち3点ともクラスAに属しているなら自身もクラスAに属す、3点のうち2点がクラスA
に属し残りの1点がクラスBに属しているなら自身はクラスAに属す、3点のうち1点がクラスAに
属し残りの2点がクラスBに属しているなら自身はクラスBに属す、3点のうち3点ともクラスBに
属しているなら自身もクラスBに属すというアルゴリズムです。
この方法での学習というのが分かりません。 ワッチョイ付けろや無能カスゴミのchainer自演野郎が >>16
何故 TF の人気がないと思うのだろう?w chainer, chainer いってるのはこのスレだけだろ
github, stackoverflow, google trend のどれを見てもtensorflowだらけだ。英語の stackoverflowでchainerの質問とか見かけた記憶ないわ 新スレもChainerかよ www
>>16
猫も杓子もTF/Kerasだろ caffeは実装例が多いから簡単に廃れはしないだろうけど、段々使われなくなっていくかと 既存のフレームワークでメモリが2GB程度も動作する奴教えて。TFは一番簡単な例しか動かなかった 2GBかい、pytorchはメモリ抑えてくれる印象だがコードの書き方にもよるかも NHKのクローズアップ現代
似非科学でビッグデータとかω
同じ映像使いまわしでショボかった ここもゲハになってきたね
chainer = 豚
nnabla = ゴキブリ
tensorflow = 痴漢 非力なマシン使ってる時点でお呼びでない。もう来んな。 今はマシになったんかなあ、少し前のバージョン触ってみたけどマジでほんまにゴミだった。 >>33
どのバージョンを使ったの? たくさんあって分かりません 宣伝厨もアンチもどっちも酷い
それとも同一人物だったかな? >>37
それな、やはりTFはだめだな
chainer使ってみたら、意外に良かった >>37
同一人物に決まってる。宣伝厨やアンチは酷すぎ。負けずにみんなでchainerを盛り上げよう! Chainerにも改善すべき部分は当然あるだろう
で問題なのはオープンソースなのにもかかわらずただ文句だけ言ってる点
だから日本人は技術力という面で海外から後れを取る
これからますます発展する数少ない技術にChainerという形でこれまた稀な日本オリジナルの技術が立ち上がっているというのに自国の技術を改善させて発展させようという気概がない日本人 何言ってんだバカちんが
問題なのは日本人しか使ってないのにドキュメントが英語なところだろw 何言ってんだ
今の時代英語のドキュメントがないとそれこそガラパゴス化まっしぐらだろ とはいえ、日本語のドキュメントは英語版の後追いでもいいからあってもいいな どの道ガラパゴス確定なんだし国内に特化すべきなのは明らかだろ googleとappleにすべてを持って行かれて、従順だった国内メーカーを軒並み撤退に追いやったドコモさん、ちーっす‼ 中間層10層のニューラルネットをSCE-UA法で学習させている。
2コア2スレッドなマシンでは収束に時間が掛かるなこれ。 >>49
年齢が違うんだよ。50代後半ならこれで通じる。 みんなが勧めるからchainer使ってみたら、意外に良かった! オープンソースだから参加できる
と言いつつコミュニティを大事にしない
文句は聞くけど反映はしない
いやーオープンソースって素晴らしいですねえ コミュニティと言っても実力を認められなければ相手にされない PFNがchainerの開発上どんなことしてるか具体的に聞かされんとなんとも 前いた会社に、朝会のスピーチとかで事あるごとに「オープンソースの開発に参加してます!みんなも参加しよう!」って言ってる奴がいたけど、有り体に言えば知識はあるんだろうけど技術が伴ってない感じだったな
困ったことがあれば相談してみてくれって公言してたから相談したことあるんだけど、知識自慢?技術アピール?されただけで、結局、問題解決にならなかった
新しい技術には興味あるし一応試したことはあるから概要は知ってるけど、実際に実務とか実用面で使おうとすると全然使えない奴だったな
簡単で楽しい部分だけをつまみ食いしまくって、俺最先端!って悦に入って会社でアピールしまくるとかいい大人がやることじゃないよな
すまん、スレチだったな chainerも否定しないしされるべきでない。
好きな流派選べばいい chainerは強化学習の最新の手法実装してるの凄いと思うよ いまやPFNはトヨタの傘下に入った
わかってるやつはわかってる アインシュタイン『すべての宗教、芸術、科学は、同じ一つの木の枝である。』
-考察-
この言葉を説明するとしたら、その『木の根っこ』にあるのは、あれしかない。『真理』だ。そして、『愛』であり、『神』だ。
しかし私は、これらの言葉が全て同じものを指していると考えていて、そう仮定した場合でも、アインシュタインの言葉とつじつまは合うのである。
-アインシュタインの言葉を自分のものにする-
例えば、『四聖』に数えられる、
孔子、 ソクラテス、ブッダ、キリスト
彼らの言葉を一通り見たが、私が見出した彼らの教えの共通点は2つあって、まず一つ目は『自分の心に目を向けるべし』ということ。そしてもう一つは、『真理を説いたこと』なのである。
彼らの言葉は、確かにその教えや表現は微妙に違うのだが、真剣に向き合って内省してれば、(どれも同じものに目を向けている)という事実が、浮き彫りになってくる。それこそが、真理であり、愛であり、神なのだ。
ラ・フォンテーヌは言った。
『すべての道は、ローマに通ず。』
私は、この『結局、辿り着く場所が同じ』という現実を考えた時、
(もしかしたら、『神』という実体は、私が認識して理解できていて、この世に普遍的かつ絶対的に広がっていて、圧倒的な強い支持を得ている『愛』や、『真理』と、ほぼ同じものなのではないだろうか?)
という強い意識が芽生えるようになった。そして、そんな私からすれば、このアインシュタインの言葉を理解するのは難しくはない。
『同じ一つの木の枝』も、『結局、辿り着く場所が同じ』も『この世には、圧倒的な根っこが存在している。』ことを示唆する言葉となっているのである。
『そこ』から離れれば離れるほど、人間の心は虚無に陥る。これは、非常に興味深い事実である。 >>67
具体的に何言ってるか意味不明。
そもそもトヨタの制御技術力は
間違いなく世界トップレベル
機械学習に頼る前からそこそこの
自動運転技術はあった。
最近ディープラーニングに注目が集まってるだけで実際は制御論が下地を作ってる 二輪で日本都市部の一般道でも事故らない自動運転が実現したら手のひら返してやろう トヨタの傘下になった時点で魅力薄。軍門に下った企業にはエネルギー感じないなあ。 >>72
かばうわけじゃないが、人を増やしたみたいだし仕方ないんじゃないの
いくらこのスレで chainer 言ってみても、chainerが売り上げに直結するわけじゃないし >>66
アインシュタインもときにトンチンカンなことを言っていると思うよ 推進派にしてもアンチにしても放っておけない存在なのかね
それともアンチのアンチ vs 推進派のアンチという反反原発に似た低レベルな争いなのだろうか ネタにすると面白いと思ってる勢がいると思う
どっち側の書き込みでも確実に反応してくれるもんな 便所の落書きスレのレベルに合わせた落書きをしてるだけだろ
あと、少なくとも信者が一人はいるから、からかうと面白いのかも アインシュタインのこんな名言がある。
”人の価値とは、その人が得たものではなく、その人が与えたものによって測られる”
いくら肩書きが優秀であっても、社会に貢献出来なければ、残念ながらその人間には価値が無い。
だから、
”成功者になろうとせず、むしろ価値のある人間になろうとしなさい”
これも、アインシュタインの名言である。つまり、人の役に立つ人間になれということだ。 81みたいなガチくさい信者が顔を真っ赤にしてるのを楽しむスレってわけか 372仕様書無しさん2017/08/11(金) 10:31:43.41
フリーランスで検索すると引っかかる零細ITがやっているサイトはだめだ。
高額に見せているけど実際は50万前後
JIET加入した方がいいよ。案件は毎日千件以上末端価格は60万円 平凡な稼働時間の80万円の案件もある。
ユー子が求人をだしてる。名刺も渡せる。ユー子に名刺が渡せるんだぞ。夢のようだ
それらの案件まさぐってHPで転売していたのが零細ITがやるフリーランスサイト
自称エージェントはJIETから流れてくる案件を転売してるだけだった。
JIETに加入すれば誰でも案件に応募することができた。収入が40万50万台にならなくて済む
473非決定性名無しさん2017/08/03(木) 15:21:30.71
JIETに加入すれば誰でも3次60万からスタートだ。フリーランスのサイトをやってる
自称エージェントもそこから案件情報を取得しきてる。サイトで60万で釣って40万から55万の
間でやらしている。 >>83
DeepMindも軍門に下ったわけだが? ハイブリッドから電気自動車にの方が心配 愛知自動車 グーグル(Alphabet)
2016年度売上高 - 10兆3,000億円
営業利益 - 8700億円
トヨタ
2016年度売上高 - 27兆5971億9300万円
営業利益 - 1兆9943億7200万円
\バッチコーイ!/ 何か論理的に生産性のある議論をするわけでもなく、単に自分が気に入らないだけという理由で中身のないケチを付ける愚行 貶すほうもだが持ち上げるほうも、どっちもイマイチ根拠が乏しい
というのが実情 具体的にどんだけ出資されてるの?
そもそも自動車業界最強企業が肩入れするってことはそれだけ可能性があるからなんじゃないの? 他社に大きく遅れる可能性のある技術は入れとかないと後が怖いから 現実を見たくないだけでしょ、上のほうで既に色々と指摘されてるじゃん 金の関係ができちゃうと、いつの間にか完全に取り込まれちゃうからね
やりたいことなんかすぐに出来なくなっちゃうよ 正直あの本は自己弁護と工学部の美化が過ぎると思うわ 一般論じゃない?
出資者に出資者用の成果という見返りを返さなきゃいけなくなる >>105
deepmind の名前をあげて誤魔化そうとすればするほど、悲観的な見方をせざるを得ないわな >>108
ん? 利益の一部だけ渡せばいいということ?
それは出資された割合によるよね
お金にしろ、経営権にしろ、技術供与にしろ、
どのような形でどの割合(0かも)になるか知らんが、出資者に出さなきゃいけない成果だから
トヨタは今、全力で次に力を注ぐべき道を探してる
んで、「人工知能」とかの海千山千のもやっとしたものにも巨額の出資をしようとしてる
トヨタぐらいじゃないとできないやり方だよなー >>109
横からだが、「出資者用の成果」に経営権を後から入れるのは詭弁だわ >>110
そうか、では、言葉のアヤだ。ごめんなさい
出資者に出資者用の見返りを返さなきゃいけなくなる
と言い直す >>111
自分も言葉足らずだった、経営権とかも含めて見返りと考えてるなら同意します。 機械学習の進化の果てに生まれる人工知能の心もおまえらくらい素直だといいな ツイッターでchainer調べたら
普通にchainerの評判良いのな ソニーはpython2だからお話にならない。
というかお話ししてはダメ >>115
日本では評判いいよ
国産なんだか俺らが支えなきゃいけんのよ本来はさ
いつまでもアメ公の後塵排してもしゃあないやろ お前ら単にドキュメントが日本語じゃないからChainer使いたくても使えないだけじゃん
ほんっと雑魚だよ このタイミングで煽るのはバカみたいだからやめときな >>123
高卒でも機械学習使えるってすごい国じゃん >>81
エネルギー感じない、を糞と勝手に解釈するお前、バカだよね。
口聞くな。バカは黙ってろ。 「人生はゲームのようにプレーしろ。真理は恐ろしいものではない。」 魂の根源。これが解明でいない限り、AIは模倣に過ぎない >>130
魂というカラクリが知性とは別に存在するというのか?それはどういうお伽ばなしなんだ? 人間に分からないなら、AIに解かせればいいじゃない。
〜マリー・アントワネットの言葉 >>132
どうやって?
現状ですら知能と呼べるものでないのに‥ kotlin を仕事で使うことが増えたのだけど、kotlin ってdeep learning での実績あるかしら? ディープラーニングで顔写真から巨乳かどうかを判別してみる (うまくいったか微妙)
https://goo.gl/mvbE9o >>140
それはわからん
うまくいかなければ顔と巨乳は相関がなさそうだという結果が得られるし、うまくいったら何かしらの相関があるようだという結果が得られる >>144
頭おかしいの?
うまくいかなかったら相関がないに直結しちゃうの?
データがゴミとかモデルがクソとかの可能性は考えもしないの? >>147
それを言うと
うまくいったら何かしらの相関があるようだ
の方も同じだな モデルがでたらめでもそのデータでたまたま相関があるっぽい結果が得られただけという可能性を排除できないとか >>151
もはや何を突っ込んでいいのか分からないレベルに酷いんだけどw
こんなレベルのゴミがうじゃうじゃ紛れ込んでるのが今のこのスレかあ、、 それは間違いないけど
前は低レベルな議論くらいはあったと思う
ここ1年以内くらいに急に低レベル未満の論外のゴミが大量に流れ込んできてる気がする それより TF 1.3 が出たようだな、みんなはもうアップグレードしたかな TFとChainerって純粋な性能面でいうとどうなの >>162
またそうやって信者をたきつける
もう性能を比較しても意味がないだろ もう比較にならんよ、TFのモバイル対応とか凄く進化した TF 1.3 リリースさえ Chainer ネタに引きずり込もうとする信者 w すごいかどうかわからないんだけどわかってる人にとっては凄いんかな SONYが一気に主役だな、今後はSONYを軸に世界がまわるな C++11 で書きました、ってところに反応すればよいのか? パッと見たけど学習済みモデルの利用どうするんだろ。
GUIツールがなんか面倒見てくれるのか? Placeholderの作成をモデル定義部分で行うのが違うぐらいで、ほかはTensorflowと何もかもが一緒っぽいな ソニーのなんていらんからTFでGUIコントロールさせてくれ GUIツールなんているか?初心者はいるのかもしれんけど GUIツールないといけないような非プログラマーが機械学習の中身弄りたい要望あるとは考えにくい >>191
うぉお、これは知らんかった
後でいじってみる 日本って何でわざわざ流行りそうにないものを二番煎じで作るのだろうなw >>191
そんなのがあったのか
nnablaってすでに自社製品で使ってるんだな
日本にもPFN以外で一応大企業で自社開発してるところがあるってのは少し安心 >>196
本当に PFN が好きなんだなw いろいろと残念だったなw >>197
>>198
いやいやw
べつにchainer信者じゃねぇからw
単純に日本人として日本初で頑張ってるところがあるってのがうれしいだけだよ >>199
TF信者呼ばわりしてるくせに何を言ってるんだか まぁ日本発に期待したいというは分かるけど
今更別のフレームワークを作るよりも (Keras みたく) TF 上のライブラリを作ってくれれば
もう少し応援しやすいんだけどな たまにはフレームワーク論争じゃなくて有意義な話しようぜ
オリジナルnnモデルの話とかさ
ちなみに俺の組んだやつは畳み込み4層全結合2層で畳み込み層にスキップ構造をもたせたりその他色々いじくったやつだ
MNISTの精度は93%だった >>205
MNISTは教師なしで98%分類できるからそれ以下の精度のモデルは見直したほうがいい いくらレベルが低いスレでも、せめてCIFAR10とかでやれよw いや、さすがに畳み込み使った改良モデルで MNIST 93% は反応に困るだろ… 文系でもAI開発できる? ソニーが「Neural Network Console」を無償公開
http://news.mynavi.jp/articles/2017/08/18/sony_nnc/
フレームワーク、Pythonとは何だったのかwwww? >>213
画像が TensorBoard の劣化版にしか見えない… もうスレタイをTensorFlowに変えろよまじで >>213
ナンセンス
そもそも機械学習は理系でもなんでもない >>218
フレームワークよりも使いやすいだろ?
ならいいじゃん。 そもそも文系?の人がきついと思うのはニューラルネットとかの根本的な仕組みの理解であってそこさえクリアできればコーディングは大して難しくないと思うんだが
これ需要あんのけ? >>220
コーディングは人によっては果てしなく難しいものなんです >>221
そうなんだ
まあ俺も全くコーディングできないしな コーディングが苦にならないとしても複雑なものは図示した方が把握しやすいってものあるしな。
UMLとかもコーディングできない人のために存在しているわけじゃない。 >>191
「Windowsアプリで始める」にワロタwww
やっぱ糞ニーだなw 直受けの50万 客:いつまでもうちにいていいよ
3次受けの50万(客は70万払ってる) 客:短期延長していい?
5次受けの50万(客は110万払ってる) 客:作り終わったらとっと出てけ できなかったら即退場だ
長時間労働 高稼働 高スキル要求が多い
零細フリーランスサイトは5次受けから誰もできない難易度の高い仕事 余り物の仕事を紹介してくる。40万円代でやってくれと
これならJIETから3次でいったほうがいいな
446非決定性名無しさん2017/08/02(水) 22:12:48.95
JIETに毎月5千円払えば3次から入場できるだろ?
高額をうたうフリーランスのサイトはだいたい5次から45万円
JIETで閲覧応募できる末端価格からさらに搾取するのが高額をみせつけるフリーランスサイトでした
高額案件をみせつけるフリーランスサイトも案件の取得はJIETでした
473非決定性名無しさん2017/08/03(木) 15:21:30.71
JIETに加入すれば誰でも3次60万からスタートだ。フリーランスのサイトをやってる
自称エージェントもそこから案件情報を取得しきてる。サイトで60万で釣って40万から55万の
間でやらしている。
372仕様書無しさん2017/08/11(金) 10:31:43.41
フリーランスで検索すると引っかかる零細ITがやっているフリーランスのサイトはだめだ。
高額に見せているけど実際は50万前後
JIET加入した方がいいよ。案件は毎日千件以上末端価格は60万円 平凡な稼働時間の80万円の案件もある。
ユー子も求人をだしてる。名刺も渡せる。ユー子に名刺が渡せるんだぞ。夢のようだ
それらの案件まさぐってHPで転売していたのが零細ITがやるフリーランスサイト
自称エージェントはJIETから流れてくる案件を転売してるだけだった。
JIETに加入すれば誰でも案件に応募することができた。収入が40万50万台にならなくて済む >>191
これどこ向けに需要あるの?
既存よりもスゲー使いにくいし機能少なすぎるし
何したいんだこれ? 需要がないことはさすがに分かってるでしょ。
SONY はグーグルとかよりも凄いものをやってるんだぞ、と一般人にアピールできれば十分。
実際、このスレでも釣られてる人がいるわけだしw しかしプログラム板なのに、コーディングが苦手な人がいるのには驚いた とりあえず触ってみる、的には良い出来なんじゃね
感覚的にはDB触ったことないやつがMS Access触ってみるのに近いかも
タイトルも文系でもAI開発できる「?」ってただのお決まりの煽り文句に過ぎん >>213
使用するにはメールアドレスを登録して落とす必要があるから
ヤフーメールを入力して送信したけど、届かないのはなんで? 容量914MBでダウンロードするのに、8時間とかなんでや!?
steamで、もっと容量多いゲーム落とすにも何時間もかかるとかありえないんだけど? ソニーの「構造自動探索」ってのはどんな中身の技術なんだろ? ちなみにGoogleの構造自動探索は900台のGPU使ってるよ 金の掛け方が違うな
P100あたりだろ?
10億円近くだぞ というか、TPU を使ってるんだろw 比較にならんわw NVIDIA,PCIe版「Tesla V100」搭載システムの2017年内発売を予告。Volta世代の「AI向けGPU」
http://www.4gamer.net/games/121/G012181/20170622002/
これいくらぐらいで買えるのかな? 所詮はAIで生成されたもの
いくら技巧的でも、そこには人生がない。
人間の認識や感情の根本は差別だ。
アレとコレは違うという認識が基本なんだ。
だから、人工知能がいかに人間のように振る舞っても、人工知能と人間の知能は違うという事実を認識する。
つまり差別するんだ。
奴隷全盛期の時代において、奴隷にして高い芸術的評価を受けている人間はいるか?
芸術というのは作者がどのような人生を送ってどのようなことを考えているかということが重要であり、
その上で、作品が他人に好まれなければならないんだよ。
そりゃ、過去のデータから大衆が好みそうな音楽を自動生成する人工知能なんかはそのうち作れるだろうさ。
ロボットが頭をポリポリ書きながら楽譜を書いて作曲したりもできるかもしれないさ。
でも、それって「人工知能」だろ?
人間とはちがう、ただそれだけの理由で好まれないんだよ。
作者がどんな経験をしてどんなことを思って描いたのかということが大切なんだ。 >>250
ロボットだということがばれないほど精巧なAIと身体が作られたらたぶん話は違ってくると思うよ ttp://toyokeizai.net/articles/-/185678
宮崎駿にも話かけられた天才プログラマのお言葉です アインシュタインのこんな名言がある。
”人の価値とは、その人が得たものではなく、その人が与えたものによって測られる”
いくら肩書きが優秀であっても、社会に貢献出来なければ、残念ながらその人間には価値が無い。
だから、
”成功者になろうとせず、むしろ価値のある人間になろうとしなさい”
これも、アインシュタインの名言である。つまり、人の役に立つ人間になれということだ。 >>256
ミレバ が色々言いたそうだな。
DVする人の人権は認めない >>256
すまんがそもそも人間の価値を考えることが愚かなんだけどね アインシュタイン『すべての宗教、芸術、科学は、同じ一つの木の枝である。』
-考察-
この言葉を説明するとしたら、その『木の根っこ』にあるのは、あれしかない。『真理』だ。そして、『愛』であり、『神』だ。
しかし私は、これらの言葉が全て同じものを指していると考えていて、そう仮定した場合でも、アインシュタインの言葉とつじつまは合うのである。
-アインシュタインの言葉を自分のものにする-
例えば、『四聖』に数えられる、
孔子、 ソクラテス、ブッダ、キリスト
彼らの言葉を一通り見たが、私が見出した彼らの教えの共通点は2つあって、まず一つ目は『自分の心に目を向けるべし』ということ。そしてもう一つは、『真理を説いたこと』なのである。
彼らの言葉は、確かにその教えや表現は微妙に違うのだが、真剣に向き合って内省してれば、(どれも同じものに目を向けている)という事実が、浮き彫りになってくる。それこそが、真理であり、愛であり、神なのだ。
ラ・フォンテーヌは言った。
『すべての道は、ローマに通ず。』
私は、この『結局、辿り着く場所が同じ』という現実を考えた時、
(もしかしたら、『神』という実体は、私が認識して理解できていて、この世に普遍的かつ絶対的に広がっていて、圧倒的な強い支持を得ている『愛』や、『真理』と、ほぼ同じものなのではないだろうか?)
という強い意識が芽生えるようになった。そして、そんな私からすれば、このアインシュタインの言葉を理解するのは難しくはない。
『同じ一つの木の枝』も、『結局、辿り着く場所が同じ』も『この世には、圧倒的な根っこが存在している。』ことを示唆する言葉となっているのである。
『そこ』から離れれば離れるほど、人間の心は虚無に陥る。これは、非常に興味深い事実である。 >>260
アインシュタインの揺動散逸定理も知らんくせに言葉を語んな ソクラテスは言った『真理の探究なき人間は、生甲斐のない人生だ。』
真理の探究。つまり、何が正しい筋道で、どこに焦点を合わせればいいかを模索する。
これが人間にどういう恩恵をもたらすかというと、人生における試練、トラブルといった、あらゆる問題ごとのスムーズな解決を促すのだ。
例えば、『人は必ず死ぬ』という真理。この真理がわかっていれば、こういう言葉と真剣に向き合うだろう。
『人生は一冊の書物によく似ている。 愚かな者はそれをパラパラとめくっているが、 賢い者はそれを念入りに読む。 なぜなら彼は、ただ一度しかそれを読めないことを、知っているからだ。』byジャン・パウル
そういうことだ。つまり真理の探究ができない人は、ここでいう『愚かな者』。毎日を場当たり的に生き、浅はかで刹那的、建設的ではなく、射幸的な人生を好むようになる。
建設というのは読んで字のごとく、毎日毎日、積み上げていくものだ。そういう人は、射幸的のように、幸せを矢で射って当たれば儲けと考える、そういう生き方をする人間とは比べ物にならない結果を出すだろう。
それがわかるのが、記者とイチローのこのやりとりだ。
記者『イチロー選手は、なぜ同じ毎日の繰り返しで、成功できたんですか?』
イチロー『確かな一歩の積み重ねでしか、遠くへは行けない。』
真理とは、自分の人生を最高に応援する、勝利の女神のようなものだ。彼女を怒らせたら怖いが、味方にすればとても心強い。
どちらを選択するかは自分次第だ。 「人生はゲームのようにプレーしろ。真理は恐ろしいものではない。」 Redditの機械学習スレにはgoodfellowとかが普通にいるのにここは小学生しかいないのか 2chなんて40超えた土方オッサンばかりなんだから、今の機械学習なんてさっぱりだろ
だいたい機械学習はそもそも求人件数ないし仕事でやってきちんとした知識ある奴、日本に千人くらいしかいないんじゃね クソ安買い叩き値なら求人も外注依頼も結構あるぞ
まともな募集は少ないが、本当に機械学習が必要な案件もごくわずかだ >>266
NNなんてかなり簡単なほうだからww
特に問題なくコード作れるよん 既に大衆化したコードなんて誰でも書けるんだよね
中途採用はコードがない論文読んで実装までできる人って条件で募集してる
最近は英語の論文読めない、数学分かってない、ただのコピペマンが機械学習できまぁす!ってのが増えて面接でガッカリすること多い 「真理を覗くとき、真理もまたこちらを覗いているのだ。」
>>269
そんな条件で出してたら応募ゼロだろ
日本人はあきらめろ
ただしそっちも英語が必要だな 好きなことをやる、そのビジネスモデルを作る、そのために学ぶというプロセスに切り替えた方がいい。
これからはそういう時代だ。 最近はむやみやたらに簡単な本が称賛されるから困ったもんだ 過度な称賛はともかくも、
そのうち小学生でもプログラミングやるんだから簡単な本も良いんじゃないかな 難しくてもいいからわかるような説明になっていればいい
お前実はわかってねえだろ的な本が多い 本当は難しい話を判りやすく説明しようとして失敗してるケースもあるな 実は簡単なんだけど万人にわからない方がいいと思ってる人いそう まぁ米国や中国とかとは予算の桁が違うから仕方ない面もある
日本は少ない予算を取り合うも、利権で消えるだけだし >>274
積み木に機能が書いてあってそれを組み立てるゲームだろ(笑) >>284
ロボットを制御するプログラミングを授業に組み込む試みが評価中。 >>284
Scratch のことを言ってるなら、それは候補の一つに過ぎないよ マザボにアダプタ差し込むだけでコンピュータ自作しました(キリっ
っていう人がいるのと同じで
プログラミングにもそういう時代が来てしまうんだな >>287にあるドヤ顔オタクは死滅してほしい
これまでの論文見て自力で理論組み立てれる人材を重宝すべき 機械学習もコピペである程度組めるのあるから、入れるデータだけ変えて○○が出来ました、精度はなんと○○%!
これからはAIの時代(ドヤ顔
っての溢れてるやん、精度の意味も分かってないが
つい最近も理論分かってない自称天才プログラマーがドヤ顔で記事載ってたし、それを鵜呑みにする素人も多い ニコ生主
「『高卒の天才』は高卒の間でしか通用しない」 データ水増しできるならやる。
増やせないならそのままやってみて精度でないなら諦める。 >>297
k-NNが一番単純で、実はそれなりに精度がでたりする。 プログラマーが機械学習語るって何のギャグなんだろう 人生に迷ったらより難しい道を選べ
それが最も美しい生き方だ >>305
そうか‥
じゃあ今から解析と線形代数と力学をやることに決めました ○次受けが多いほど退場率が早くなる。高くなる
直受けの50万 客:いつまでもうちにいていいよ
3次受けの50万(客は90万払ってる) 客:短期延長していい?
5次受けの50万(客は150万払ってる) 客:作り終わったらとっと出てけ できなかったら即退場だ
長時間労働 高稼働 高スキル要求が多い
零細フリーランスサイトは5次受けから誰もできない難易度の高い仕事 余り物の仕事を紹介してくる。40万円代でやってくれと
これならJIETから3次でいったほうがいいな
446非決定性名無しさん2017/08/02(水) 22:12:48.95
JIETに毎月5千円払えば3次から入場できるだろ?
高額をうたうフリーランスのサイトはだいたい5次から45万円
JIETで閲覧応募できる末端価格からさらに搾取するのが高額をみせつけるフリーランスサイトでした
高額案件をみせつけるフリーランスサイトも案件の取得はJIETでした
JIETに加入すれば誰でも3次60万からスタートだ。フリーランスのサイトをやってる
自称エージェントもそこから案件情報を取得しきてる。サイトで60万で釣って40万から55万の間でやらしている。
372仕様書無しさん2017/08/11(金) 10:31:43.41
フリーランスで検索すると引っかかる零細ITがやっているフリーランスのサイトはだめだ。
高額に見せているけど実際は50万前後
JIET加入した方がいいよ。案件は毎日千件以上末端価格は60万円 平凡な稼働時間の80万円の案件もある。
ユー子も求人をだしてる。名刺も渡せる。ユー子に名刺が渡せるんだぞ。夢のようだ
自称エージェントはJIETから流れてくる案件を転売してるだけだった。
JIETに加入すれば誰でも案件に応募することができた。収入が40万50万台にならなくて済む
エンド - ユー子 - エージェント-JIET 公表価格 90~60 - エージェント×3 = 言い値50万以下
エンド - ユー子 - エージェント-JIET 公表価格 90~60 - エージェント×1 悪質な言い値で50万以下
エンド - ユー子 - エージェント-JIET 公表価格 90~60 - JIETに加入して公表価格で応募ができる ddpgとdqnの違いってddpgは行動に連続値が取れる以外になんかあるの? 猫も杓子も人工知能の今だからこそアナログ力を磨くべきだと思う
スポーツや運動などの身体能力の拡張、自分の言葉で自らの思考を発しディベートする、そして芸術に励み文化に触れ創造性を獲得
俺はMacを捨ててプライベートでは極力デジタルから離れ自己鍛錬に励むようになった
おかげで身体能力と営業力、創造性がメキメキと発達している
いつの時代も「人間力」これが一番大事なのだ >>322
3日で20万円とかぼったくり過ぎない?
どんな人がそんな金払って行くのよ? Mメガ
mミリ
K = 1024
k = 1000 20万か〜。
自腹じゃなくて会社から出してもらって行く人はいるんだろうな。アホは 会社だってアホに20万は出さんよ。
セミナーは自習に時間使わせるよりその金額払った方が得なスペックの人間に行かせるもんだろ。 手ごろな本を読んだほうがいいと思うね
https://www.amazon.co.jp/gp/product/4839962510/
とかよさそうだが,python の説明がちょっと飛んでいてとまどっている 言語そのものの理解と機械学習の理解は別でやったほうがいいでしょ 知識を独占したいだけじゃないのか
馬鹿でも使えるようになったら(ボッタクリできず儲からなくて)困るから
難しいままにしておきたいのだろう そもそも繰り返すが機械学習、特にNN関係はかなり数学的に簡単なほうだ。
それを中心に学ぶよりも基礎力上げて欲しい 人工知能というか機械学習なんて学習データが全てなんだから政治に利用しようとすれば当然各陣営に有利な結果しか出離されなくなる ゲームや画像には飽きたよね…
政治じゃなくてもいいけど別方向の問題を扱いたい >>351
もうそれは散々やられているよ
High frequency trading(HFT)とかcolocationでググってみたら 時系列モデルをセンサレス制御に応用できないかなーと色々試してる
実際にモノ動かしたほうが楽しいしね
機械系電気系との合わせ技で夢が広がるよ >>355
そもそもLSTM、RNNには解の収束性について、数学的な保証が何もない。
>>355のコメントから、既存の制御方法がどんだけ信頼性高いか考慮されてないことが伺える。(そもそも比較するだけの技術力も頭もないだろ?)
何でもかんでも機械学習が優れてるわけじゃない たとえばモータなどのアクチュエータを『精度よく制御する』点では機械学習はあまり期待しないほうがよい
既存の制御論を舐めてるとしか思えない >>359
例えば357の解の収束性についてどう理解している?
何も答えられないなら、>>359の通り 失礼訂正
>>362は>>360
ちなみにアクチュエータに機械学習を使用するなら、精度を求めることより、指令値(命令パターン)をどうするかなどに使用した方がよい 空気が読めてアンカーが打てるようになるまで ROM ってなよ >>345にあるようにろくに実力ない人が増えるのは本当に止めてほしい 例えば>>353みたいにセンサレスで制御したいなら当然、既存の実績ある制御方法をまず先にやるべきと思うけど? 議論点がずれてる
>>367はレッテル貼り
>>370は詭弁 >>368
そういう問題じゃないと思う (^-^; >>374
本当にわからないなら2ちゃん向いてない ID:gspQgzv/は
>>369にあるように既存の方法ををやらないのは何で? まあ、比較は大事だよね。
ろくに現状もわからず話題性があるほうにすがるのもどうかと思いますが‥ こういう話題性のあるほうにすがり付く馬鹿が多くて困るわ。
最近、就活生の相手してると機械学習やりたいってだけの奴が困るわ
既存の方法論とか、もうちょっと勉強してから発言しろと言いたい >>379
そんなことをしていたら年取ってしまうよ‥ 実際に企業でセンサレスやろうとするなら実績重視となる。既存の方法を優先して機械学習なんてやろうとしない。
つまりは>>353は学生さんと思ったけど?
学生なら時間掛けて技術磨けや あん?お前は駅弁か?
現代制御の最小次元オブザーバはデフォでしょ。
H∞ロバスト制御、システム童貞、連続時間カルマンフィルタはマスターしときい。 >>385
システム童貞
人に教えるつもりでそんな臭い間違え方するな 知らぬ間に盛り上がっててびっくり
皆さんが思ってるような高度な制御じゃなくて、
マップ制御、オンオフ制御、シーケンス制御が組み合わさったようなやつで
元々センサレスなのでフィードバックすらしてない笑
そういう泥臭い世界なんですよ
職人技で調整してたのを時系列データ処理で自動最適化できんかなーとか思ってただけ
学のある皆さんなら簡単かもしれないですが… >職人技で調整してたのを時系列データ処理で自動最適化できんかなー
訓練データが作れるならRNNあたりでできたり? 機械学習が理解できないからと言ってスレチを延々と続けるなよ
>>386
自己紹介しちまったんだろ >>379
機械学習スレで何を言ってるんだか、馬鹿は自分だろう まぁMNISTから先に進めなかったり、GPU環境が用意できなかったりで挫折して機械学習を批判し始める人も増えたな 信者のレスがなくなり超絶に過疎ったから荒れて草生えるのも仕方ない 制御理論の分野に限らず、新しいものを全力で否定する人は常にいるから
それだけのこと。 >>391
そもそもろくに機械学習理解してない奴が大杉なんだよ itmediaより
Google研究者著「Deep Learning」日本語版公開 東大松尾研が翻訳
ディープラーニングの教科書『Deep Learning』の日本語翻訳版が、無料で公開された。 東大松尾研なら社会人向けの無料公開講座
Deep Learning応用講座を受講したいなぁ
東大大学院の先端人口知能論IIと全く同じ内容らしい
http://deeplearning.jp/lectures/
ここは機械学習スレだからスレ違いかな? Google研究者著「Deep Learning」日本語版公開 東大松尾研が翻訳
http://www.itmedia.co.jp/news/articles/1709/06/news100.html
ディープラーニング(深層学習)の技術研究会であるDeep Learning JPは9月6日、
米MIT Pressが出版したディープラーニングの教科書『Deep Learning』の日本語翻訳版を専用サイトに一般公開した。
製本版を発売する前にフィードバックを得ることが目的で、発売後は公開を終了するという。 >>400
このオールスター教授陣、東大だから出来る授業だろw 日本では少し前まで
ITなら慶應が目立ってたけど
今のAI、DeepLearningは東大一択だもんな
次は東工大
京大、早慶はずーっと下って感じ これ面白そうだな
社会人が無料受講できるなら、他の大学生でもOK?
1. 2017/09/26 Introduction/Guidance ? 春学期まとめ
? 秋学期の紹介, 今年のハイライト、昨年の様子、成績評価等
2. 2017/10/03 高度な画像処理1 学習済みネットワークの再利用、転移学習、Fine-Tuning、VGG、Caffe入門
3. 2017/10/10 強化学習1 強化学習概要 ? 強化学習の問題設定 ? 価値関数ベースの手法と方策ベースの手法 ? Chainer, ChainerRLの紹介
4. 2017/10/17 生成モデル1 生成モデル概論、RBM
5. 2017/10/24 大規模データとDeep Learning HPC, GPU, Profilers, Database and Deep Learning
6. 2017/10/31 チーム開発(方法論、チーム編成) チーム開発、Gitとワークフロー、プロジェクト、注意点等
7. 2017/11/07 高度な画像処理 2 Region proposal, Semantic segmentation, Fast/Faster RCNN, Deconvolution, FCN
8. 2017/11/21 強化学習2 価値関数ベースの手法 ? TBA
? ケーススタディ (アクロボット, Atariなど)
9. 2017/11/28 生成モデル2 Variational Auto Encoder (VAE) と関連トピック
10. 2017/12/05 高度な画像処理3 TBA
11. 2017/12/12 生成モデル3 Generative Adversarial Networks (GAN) と関連トピック
12. 2017/12/19 強化学習3 方策ベースの手法
13. 2017/1/9 中間報告 ライトニングトーク発表
2017/1/16 補講日
2017/1/20 最終発表会 (Deep Learning Day) 基調講演、プレゼンテーション、ポスター・デモセッション ちなみに前期
1 2017/4/11 Introduction Deep Learningとは/人工知能技術の歴史、社会への影響/講義全体像と注意事項/ 全員挨拶
2 2017/4/18 Machine Learning 1 Pythonと線形代数,行列・テンソル,数式と実装のブリッジ
3 2017/4/25 Machine Learning 2 k-NN, Logistic Regression, Softmax, train/dev/testデータセット,学習プロセス
4 2017/5/2 Perceptron + Feed Forward Network, Gradient Descent Gradient Descent, MLP, Logistic Regression, Softmax
5 2017/5/9 Gradient Descent, Stochastic Gradient Descent, Optimizers TensorFlow基礎、各種Optimizers、重みの初期化など
6 2017/5/16 Autoencoders Deep Learning、特徴抽出、Autoencoder概要、dA, SdA, Sparse Coding, GPU
7 2017/5/23 Convolutional Neural Networks(CNN) CNN基礎、畳込み、プーリング
8 2017/6/6 Convolutional Neural Networks(CNN) 2 画像処理、前処理、Data Augmentation、Batch Normalization、可視化、最新動向
9 2017/6/13 RNN Basics 系列データ, RNN
10 2017/6/20 RNN and NLP Embedding, Projection, Word2vec, sequence-to-sequence
11 2017/6/27 RNN, NLP, Image Processing Attention, Image caption
12 2017/7/4 Summary and Advanced Topics Advanced Topics >>413
講師陣に「詳解ディープラーニング」の著者やPFNの人もいるんだな
深層強化学習はPFNが強いからだろうが TensorFlow
Caffe
Chainer
短時間でどれだけ教えるんだw 社会人向け公開講座の方は記載がまだだけど
院生向け先端人口知能論
春期 募集枠100人
秋期 募集枠50人
半分脱落...... 後期でも半分落とすの?
松尾研って恐ろしいなwww GANとか最新のDLだと
解説してる日本語の教科書無いだろ こういうことしているからダメなんだよなぁ
受ける方からしたらこんなカリキュラムで理解できるわけがないのに
教える方はこれで教えた気になっている 東大生だから半分残れたのか?
東大生でも半分落ちたのか? 別に必修の授業じゃないんだろ
受けてみたけど興味湧かなかったとか、教えるの下手すぎとかそういう理由でしょ
そもそも院なんてほとんど単位とかとる必要ないし不可も出さないものだぞ >>430
忙し過ぎて最近はやる気が出ない
人工知能関連は案件の数がとにかく多い。TF ばかりだが 社会科学とかの講義は一般公開するとキチガイが暴れだすだろうから難しい点があるけどさ
自然科学の講義なんか、ネットで一般公開してくれたほうが日本の世のためなんじゃないのかね 日本の大学の講義の配信なんて、音質が悪い、板書が見えない、と見るに耐えない。
配信向けに作成された米国や英国の講義を見た方がマシだわ >>432
いつのまにか TF 案件ばかりになったな。グーグル・ブランド恐るべし MIT Open Courseみたいに公開してくれればいいのに
変なの スタンフォードの動画は見てるだけで賢くなった気がする >>436-437
MIT やスタンフォードはいい仕事するよな。啓蒙活動に熱心なのは素晴らしい >>439
ちょっとぐぐってみたけど、現時点では講座数が少ないように見える。今後に期待かな >>314
リンク先消えてるけど
https://anond.hatelabo.jp/20150602120230
やろ。この二年間コピペを続けてたんやと思うと、継続力は評価できる。 python使えない、数学わからない、
のくそ会社から転職したい >>435
製品化するためのエコシステムがどんどん拡充されてるから、他のフレームワークじゃ太刀打ちできない 「人生はゲームのようにプレーしろ。真理は恐ろしいものではない。」 中央区日本橋でNVIDIA DGXを24台使ってそうな企業ってどこだろ?
推測と妄想でいいので教えてください
サイボウズ?
野村証券?
日本IBMとか?? 機械学習、深層学習の優秀な人材が多そうな国内企業のイメージ(個人の感想)
御三家
リクルート 丸ノ内
PFN 大手町
DeNA 渋谷
次点
ソニー 品川
ヤフー 紀尾井町
参考
日本は営業拠点
グーグル 六本木
マイクロソフト 品川 >>449
ソニーを除いてconnpassで100人以上の規模の勉強会の会場になってることが多いよね >>449
ショボすぎて泣けてくるな
優秀な人材が多いそうだが、どっかの子会社になったのも混じってるな 社員が論文の読み会を開催してるような会社しか残らんだろ 底辺の会社の特徴
展示会主力商品がbot、教育、海外論文のデモ >>456
教育ビジネスは上手くやれば儲かるんだよw 書籍やチュートリアル書き写して
MNISTまで触れて数十万円
それ以上は講師のレベルを超えてるとかありそう 証明して cos(α+β)cos(α-β) = cos^2(α) - sin^2(β) = cos^2(β) - sin^2(α) >>461
こんな感じでやればいいだろ、括弧は途中省略。しかし機械学習で使うか?
cos(α+β)cos(α-β)
=(cosαcosβ-sinαsinβ)(cosαcosβ+sinαsinβ)
=cos^2αcos^2β+cosαcosβsinαsinβ-sinαsinβcosαcosβ-sin^2αsin^2β
=cos^2αcos^2β-sin^2αsin^2β
=cos^2α(1-sin^2β)-(1-cos^2α)sin^2β
=cos^2α-cos^2αsin^2β-sin^2β+cos^2αsin^2β
=cos^2(α)-sin^2(β) =cos^2αcos^2β+cosαcosβsinαsinβ-sinαsinβcosαcosβ-sin^2αsin^2β
この行はいらんね >>463
はぁ? 何を言ってるんだおまえ?
困ってるのかと思って解いてやったのに、感謝の言葉一つないのか? どうせ解けなかったらバカにするつもりで、当てがはずれたとかだろ >>463
その行、あった方が親切だろ。
どういう趣旨なのか、どう機械学習に関係するのか、回答した人に答えてあげるべきだな >>468
461 本人なら、誤魔化すな。
本人でないなら、そういう問題じゃないから横から口を出すな、引っ込んでろ。 >>463
バカだな、もう少しレスの返しようがあるだろうに。 関係ないのに絡まれたw
お礼が書いてないとか怒る奴がたまにいるけど感謝の言葉を求める奴に2ちゃんは向かない
俺も通ってきた道だからな >>470
教科書の加法定理の練習問題っぽいからそう思ったんだけど >>472
言葉の綾で、礼を望んでるわけじゃないだろ。 >>474
糖質か?黙ったほうがバカをさらさなくてすむよwww 急に単発IDが出てきたな
こんな過疎スレでw
アホすぎる ろくに数学も知らない連中が集うこんなスレで数学の質問をしてはだめだよ
高校数学でもこんなにあれるもとになるのだからw 2ちゃんの質問に対するレスの仕方を知らなくて
実際に返ってきたレスでイライラするとか
いまどき心が純粋だと言える
※ほめてはいない caeは人工知能の一分野。
高卒様には関係ないことだろうけど このスレはスレ名通りのことしてるやつは指で数えられる程度しかいなくてあとは痴呆と痴呆による雑談漫才スレだから仕方がない >>449
御三家ってどこ?
Google
Microsoft
IBM
かと思ったら違うみたいだし 昨日のPycon JP
セキュリティにGANを利用したのは面白かった
Web攻撃スクリプトをGANで自動生成し、攻撃を自動化して脆弱性を探すというトーク
別のセッションでGANで文章の自動生成というトークがあったが、そっちはまだ失敗してると
ディープラーニング系のセッションは満員立見で通路に座り込む場所も無い超人気
今日の2日目にも期待 >>482
否定はしないが、そもそも日本自体が遅れまくっててどうしようもないじゃん TF/Kerasで十分だと思うが、合わない人はPytorchもいいかもな。FBがやたら張り切ってるしw objective は分けてるようだが様子見でいいんじゃね >>493
Torch 使ってた人も移ってるのだろう 研究室でchainerを使っている学生ですが、企業ではtensorflowが多いのでしょうか? >>497
どうせ釣りだろうが、今となっては比較するのもtensorflowに失礼 その記事は Chainer を調べてないようだから、TensorFlowより上か下かは分からなくね? >>502
9/10 現在
TF : 69.358 ; PyTorch : 7,212 ; Chainer : 2,903 >>502
調べてないんじゃなくて、視野に入ってない >>502
バカだな、余計なこと言わなきゃいいのにw >>503
これなら視野に入らなかったと言われも文句言われないな 日本じゃchainer頑張ってるのは認めるわ
MS、ndiviaと組んで企業、学生の利用者も増えてる-日本では だからTensorFlow専スレ立てろっつてんだろ >>503
.と,も使い分けられないやつに用はない このスレはディープラーニングについていけない、頭の固い老害が集う機械学習スレね ○次受けが多いほど退場率が早くなる。高くなる
直受けの50万 客:いつまでもうちにいていいよ
3次受けの50万(客は90万払ってる) 客:短期延長していい?
5次受けの50万(客は150万払ってる) 客:作り終わったらとっと出てけ できなかったら即退場だ
長時間労働 高稼働 高スキル要求が多い
フリーランスサイトを運営している零細ITの自称エージェントは労働市場から流れてくる案件を転売してるだけだった。
労働市場に加入すれば誰でも案件に応募することができた。収入が40万50万台にならなくて済む
エンド - ユー子 - エージェント-JIET 公表価格 90~60 - エージェント×3 = 言い値50万以下
エンド - ユー子 - エージェント-JIET 公表価格 90~60 - エージェント×1 悪質な言い値で50万以下
エンド - ユー子 - エージェント-JIET 公表価格 90~60 - JIETに加入して公表価格で応募できる
eJobgo JIET JISA で検索
優良エージェント・優良サイト
首都圏IT(PE-BANK) プログラマーズ >>517
スマホで急いで調べて打ち込んだのだが、いらんお世話だったか。すまんかったな >>520
TFしか認めない人の書き込みって見たことない。 tensorflowは単に仕事で使ってるだけの人が多いだろうから信者っぽくならない Keras使ってるだけだな
あと最近はpytorch推しが増えてる
>>517
何様だ? 機械学習を試したいと思いまずopencvのcreatesamplesで正解画像を増やそうと思ったのですがコマンドプロンプトで実行したところ一瞬でdoneとでて何も変化がないのですが何か特別な方法が必要なのでしょうか? SONYの本気!AI開発ツール『Neural Network Console』が現場の常識をぶっ壊す
https://www.google.co.jp/amp/s/bita.jp/dml/sony-neural-network-console/amp
簡単に数字を学習させることが出来ました。誰でも使える神ツール!
テンソルフローとかパイソンとかアホらしw >>530
オープンソース? github には見当たらないが >>530
ばか、だからそれ内緒にしとけっつったろ eJobgo JIET JISA で検索
優良エージェント・優良サイト
首都圏IT(PE-BANK) クラウドテック プログラマーズ その手のツールは割とすぐに限界が来るのが見え見え
まあ数字覚えさせて喜んでるような最下層には需要あるのかもね その手のツールってどういうもののことを言っているんだろう。
「割とすぐに限界が来」たツールの例を挙げてみて。 pytorchって知らなかったけどぐぐったらフェイスブックがやってるのか。tensorflowとどっちを先に勉強したほうがいい? >>537
GUIプログラミングなんて底が知れてるだろ?
現に小学生の夏休みの自由研究レベル程度にしか普及してない 関数電卓のプログラミング機能でプログラミングマスターしたと言ってるのと同じレベル >>539
TF でいいでしょ、デファクトスタンダードだしドキュメントも豊富。
自分は PyTorch を使ってるけど、ドキュメントが不親切なので初心者には分かりにくいと思う。 >>530
windows 版しかないとはアホらしw >>530
誰でも使えるツールで簡単に学習させて得られる成果で他者と差別化できるとは思えないな まぁ初心者がちょっと試すのには良いとしても、そこから先の展望が見えないかな だ か ら 「 玄 人 」 さ ん は T e n s o r F l o w 使 っ と け よ >>536>>540
例えばSimulinkなんて実務でバリバリ使われてるんですが…
自動車業界だとデファクトスタンダード そうですね。
制御関係では、matlabは金払ってるから保守確実。一般企業では変わるわけないですね。 tensorflowってマルチgpuに対応しているの? simulinkは自分で組んだスクリプト使えば何でもできるからな
自動車業界の開発がオプションで提供されてるものだけで完結するわけないから MATLAB+Simulink
TensorFlow+TensorBoard
nnabla+NNC
どれも言語/ライブラリ+それを使うGUIの組み合わせだけど、ソニーだというと嬉々として叩く奴が出てくる。 そもそもソニーはエンジニアの質が低い
ハイレベルなことはほぼ出来ない GUI=素人専用という思い込みが強いのかな
だれでも簡単にできることが気に入らないのかな
難しいことをやっているんだという状態が崩されるのが嫌なのかな
と思えるようなディスりレスがあるね どうでもいいわ、漢は黙ってchainerこれで完結 chainerって日本なのに日本語ドキュメントがないんだよな chainerは神の言語で記述されてるから当たり前 画像認識に使うCNNの原理がよくわからんのだが
わかりやすく説明してるサイトとかない? >>550
既にgcpに分散訓練環境もあるし、デプロイもkubernetesで可能。
>>552
完成度が違い過ぎる、本当に使ったことあるのか? >>554
違う。
企業では、特質上もともとプログラマーしかいなかった部門にいきなり専門の話は出来ない。
分かりやすいものが優先され、既存(公開)コードの模倣以上のことはほぼできない。 >>552
TensorFlow と nnabla の機能差や普及度が違い過ぎて比較にならない。
GUI 以前の問題
>>556
日本でしか流行ってないのに完全に戦略をミスってる >>554
Weka とか良く出来てるのにお世辞にも流行っているとは言えない理由は何だろう? >>554
データを持ってるユーザがGUIで自身で試すことが少ないからだよ、少なくとも日本では。 機械学習を中心に仕事するなら、GUI を使うだけじゃお金にならない >554
アナログ-ディジタル と同じくらい
GUI-CUI は誤解されてると思う guiでは作業効率面で必ずどこかで限界がくる
大量処理しなければならないときにcuiだと簡単にできるものがguiだとポチポチ部品置きまくらないといけなかったり >>559
完成度を語れるほど全部使ったことあるの? GUIで出来ること以上のことをガンガンやってる人たちが集まってるスレなんだな scikit-learnでほぼ出来るのにTF要るかなぁ deppanalyticsに引越し需要予測のこんてすとが出てるけどどういうモデル立てる? 自前のデータでNeuralNetworkConsole(SONY)で画像分類(1)
http://twosquirrel.mints.ne.jp/?p=19813
なんとかりんごとオレンジの学習による分類に成功したぜ!
ただし、画像30枚も大変なので、10枚ずつにしたけどw 「機能と普及度が全然違う、話にならん(やべぇ、TFでどやってた内容、NNC使うと誰でも出来るじゃねぇか..)」 chainerの需要がなくなったら今度はsonyかよw >>581
普及度でもガンバレ〜 (^O^)/
tensorflow : 69,695; keras : 19,486; > (越えられない壁) > chainer : 2,922; nnabla : 1,776 普及度とかトレンドとか、何だかレベルの低い煽りだな...
取るに足らない存在なら完全スルーしとけよもう
いちいちレス拾ってる理由が謎 もう次スレからTFスレにしようぜ
そしたら無駄なレスも減る >>586
過去スレでsoinnやchainer信者のレスにうんざりさせられたからだが 常駐してるTFアンチかよ、レスするんじゃなかったわw >>586がTFアンチに見えるとか病んでるのか?
俺はTF以外使ってないんだが... >>586
普及度の違いがこのスレで認識されるようになったのはごく最近だから。トレンドとかが提示されるまでは、信者の煽りを真に受けて拮抗してると誤解してた人が目立った。 やっぱりこのスレでは普及してないと話題にもしちゃいけないんだな
気を付けよ TF以外のネタだと荒れるとか、やっぱりTF専用スレだな
スレタイ変えるかテンプレにTF以外の話題禁止って書いとけよ >>586
普及度が高ければより多くのライブラリーなり関連製品が開発される
それらを利用して更に先進的な研究が行われる tensorflowってもしかしてcudnn 7だと動かない? >>530
Winのみの時点で本気も糞もない
ノーサンキュー opensourceなんでしょ?
linuxでビルドすればいいじゃん 366 :nobodyさん 2017/05/29(月) 16:07:39.16 ID:6v4UcGhE
今回の民法改正、ソフトウェア受託開発の場合、(検収後ではなく)バグ発見後1年瑕疵担保責任があるということで、地獄かよ、と思ったが、
元々問題が起きがちな受託案件がビジネス的に成立しなくなることで強制的に業界再編につながるなら良いことかもと思うようになった。
一部で地獄を見ても。
https://twitter.com/yukihiro_matz/status/869061879389343744
367 :nobodyさん 2017/05/29(月) 16:28:06.55 ID:6v4UcGhE
ニュース - 改正民法が成立、「瑕疵担保責任」などシステム開発契約に影響大:ITpro
http://b.hatena.ne.jp/entry/itpro.nikkeibp.co.jp/atcl/news/17/052601508/
372 :nobodyさん2017/05/29(月) 19:10:37.12 ID:???
Railsでシステム作って納品する
↓
Railsはマイナー、メジャーのアップデートが半年以内に必ずある
↓
客がアップデートする。アップデートによるエラーやバグ、動作の不具合に気づく
↓
気づいてから1年以内に通知すれば、5年間無料保証ゲット
↓
つまりRailsがアップデートするたびに、無償の修正作業を発生するということかな
376 :nobodyさん2017/05/30(火) 09:20:20.09 ID:L5po86sS
>>378>>379>>375
客が瑕疵担保責任法の法改正を知ってくると思うから、今後5年無償保証をお願いされるだろう
営業がそれでも仕事を取ってこれるか?たぶん無理だろう。無限の直していたら赤字になる。
こういう保守に弱い言語、ころころ仕様が変わる言語は仕事として発生しなくなってくる。
これは変わり目だ。お前らも早く逃げたほうがいいぞ。RubyやPHPなど動的言語は確実に廃れる。
保守に強い言語のみ生き残れる。 瑕疵担保責任(かしたんぽせきにん)
瑕疵担保責任のポイント
民法改正で事実上期限が「無制限」になった
バグや設計のミスなどは、瑕疵担保責任
納品物に不具合があれば損害賠償を請求される可能性もある
不具合を指摘されたらすぐに行動をとるべし
軽微なミスでも先延ばししない
http://www.atmarkit.co.jp/ait/articles/1706/26/news014.html
http://itpro.nikkeibp.co.jp/atcl/news/17/052601508/?rt=nocnt
改正法では欠陥に気付いてから1年以内にITベンダーに通知すれば、
通知後5年以内は修正や報酬の減額などを求められるとしている
全ベンダーが泣いた民法改正案を解説しよう その1
http://www.atmarkit.co.jp/ait/articles/1609/14/news009.html
http://www.atmarkit.co.jp/ait/articles/1609/14/news009_2.html
http://www.atmarkit.co.jp/ait/articles/1609/14/news009_3.html
ポイント1:修補や損害賠償、契約解除の期限がなくなる
従来あった「瑕疵担保期間は引き渡しから1年」という考えはなくなる。
条文にある通り、注文者は成果物が契約の目的に適合しないことを発見したら、
その「発見したときから1年以内」ならさまざまな請求ができる。発見が10年後なら、
11年後まで請求可能なのだ。
もっとも、現実のユーザーとベンダーの関係でも、たとえ契約書に「瑕疵担保責任期間は納品から1年と」明記されていても、
「2年目以降は不具合の修正に対応しない」と主張するベンダーはまれだ。多くの場合は、納品から何年たっても、
バグが見つかればユーザーのところに飛んで行き、無償で改修するだろう。 tensorflowを使ってみた
なるほどtensorboardを見ると
大きなことをした気になるんだろうな cifar10をdeep_cnnで画像認識させるtensorflowのチュートリアルあるじゃん
そのままのプログラムコード用いるときにGPUメモリ4Gでメモリ足りる? >>608
コピペご苦労さん。
長文なんて誰も読まないから
最後の一行だけで十分。これを理解出来ない学生さんは死んでほしい ディープラーニングという言葉は、全結合NNや手動で調整した入力層のNNに対しては使われない? MATLABに機械学習関連のライブラリがあるみたいだけど使ってるやついる?
Statistics and Machine Learning Toolbox
Neural Network Toolbox
とか
いたら使い勝手教えてくれないか
なんせ金が掛かるんで気軽に手が出せない >>615
全結合NNが超多層でよく動くように改善したものがディープラーニングだ
全結合のまま超多層で動かすことができればディープラーニングだが、今のところそういうことはできていない
メモリー使用率の高さもあり、現在顧みられていないが、もしできるようになったらそれは新発見になる
頑張って探してみるのもいい 優越コンプレックスを拗らせてるやつが約1名くらいいるな 層とノードと認識率って相関無いのかな?
総当たりでトコトンやるしかない? 全結合ってMLPか?
素直にCPUでやったほうがええで 京大と一橋・東工大が完全に並ぶ [無断転載禁止]©2ch.net
http://leia.2ch.net/test/read.cgi/poverty/1505750640/
そういえばAIは京大の出遅れが目立つよね
京大卒より 安心しろ、日本の大学なんてスタンフォードやMITよりだいぶ下。香港大より下だろ そういや、中卒も高卒も大半はフリーターやら工場やらで働くんだろ?
大学に進学しない人にとって高校なんて出る意味あるんかな・・・・ 高認取って放送大学卒→武蔵野美術大学通信課程卒のオレ >>640
いや全然それでいいと思うよ
少なくとも高卒で思考停止のままダラダラ働き生きるよりはさ
「足りない経験は気持ちで凌駕する」 >>350
お前が見えてないだけ。有名どこしか追えてない無能さを曝け出してるなあ。 情報処理学会のインパクトファクターってどこに載ってるの?
電子情報通信学会にインパクトファクターあるのは知ってるけど 深層学習学べるのは東大、東工大、京大、早慶までだろ F欄で教える数学って中学高校の教科書の復習だからねw connpassなどの機械学習系論文読み会で発表してるのは旧帝大と早慶出身者だわ
それ以下は英語の論文にお手上げなんだろ >>656
そんなもんに参加するのは一部の人たちだけだわw でも不細工ばっかしだから参加する気になれねえんだよなあ ソフト製造とかのバイトさせると、
東大生は薀蓄は述べるけど実物は全然できず、
東工大生はすぐに着手して現物をさっさと作り上げてくるって
とある人が言ってた
ひとりの人から見た一部の人間の比較だから、ほとんど意味ないけど、
大学の名前だけで判断する(しかも馬鹿にする)ようにはなりたくないな
(東大と比較してる時点で名前で判断してるというのは置いておく) 流れ読まんが、ニューラルネットも深層学習も仕組み自体は、かなり簡単なんだね ニューラルネットの実体とは、パーセプトロンの各重み(バイアス値)の配列。
数学的な問題定義において予測関数となる部分における計算式がパーセプトロンの結合を指す。
機能で捉えるなら、ニューラルネットは、まさにある一つの目的(特徴や診断、判定、認識)を遂行する関数を指し、複数の判定には、個別のニューラルネットを必要とする。
複雑で判定要因が多岐となる目的を単一のニューラルネットで実現するには、アホみたいな階層と入力を持ったニューラルネットを構成して、学習させる必要がある。 >>666
パーセプトロンって線形分離しかできないんじゃなかったかな? 深層学習とは、ニューラルネットをマルチ令やに連ねたもの。
単純に連ねるだけだと、単なるパーセプトロンの結合階層を連結しただけになる。
ここまでは理解した。
もうちょっと勉強してくる。 >>667
出来ないみたいだね。
ただ、俺の理解だと、ここはあまり重要じゃないように見えた。
たまに論理回路に例えるが、その線形分離こそが必須要件かなーと。単なる勘。
パーセプトロンが考えている訳でもなく、こいつは、そのあたりのなんかを切り捨てることが役割。
画像認識のニューラルネットは、入力端子が画素数となる。1920x1080ならその積が入力数になるとか ぶっちゃけ、ディープラーニングに必要なのは、ビッグデータじゃない。
目的最適なニューラルネット、パーセプトロン結合の洗いだしと分類、研究だろうと思えてきた。 >>670
「必要」というのが具体的に何に対してなのかによるでしょ
ディープラーニングを利用した金儲けに必要なのはビッグデータ
研究成果の理論は公開されるけどビッグデータはマニアックなものになればなるほど特定の組織でしか入手できないものになる >>671
ディープラーニングの利点の一つは、限られた訓練データで偏在しない特徴を与えることで、必要充分な学習を果たす。
沢山あっても偏るならば、それはゴミや学習を阻害する。
必要なのは。ビッグではなく特異なデータじゃないのかと。
だから、プライバシーや他人のハードディスクを欲しがる。 >>666
長い。
本質を理解してないと思われる。
NNの実態はただの関数 >>673
iD変わってそうだが、
まだ本質には至れていないのは指摘通り。
だが、ただの関数と切り捨てるのは思考停止といい放っておく。 >>674
線形結合の係数を最適化法で求めるやり方は、別にNNに限らない。
ある関数を基底関数の線形和で定義し、その係数部分を評価関数が最小になるように求めるやり方(あるいは変分原理、最小エネルギー定理)には、カーネル法、有限要素法、第一バンド計算、最小レギュレータ、カルマンフィルターなどがあり、元はほぼ同様の方法と言える。
パーセトロンモデルは、別に特別なモデルではない。(そもそもパーセトロンモデルがマネてる生物モデルが優れているという証明は存在しない。政治的にそう説明しておくとすげえと思われやすいだけ) あえて特殊なところを上げるとすれば、CNNにて各種のフィルターを通しているところ。
サイズの違う相関関数を挟むことで特徴の差を捉えることができてる。 DLにて>>676の特徴があまりクローズアップされないのは本当に残念 ちなみに>>675に上げた事例はレイリーリッツ法と呼ばれるものに相当する。 >>679
違うかも知れんが、フーリエ級数も似たものを感じた。 数年ぶりにこのスレ来たけどひどくレベル落ちてるね
MLであらゆるものが自動化されると謳いまくる社会が問題だろうけど まぁ数年前と比べて論文増えるスピードが尋常じゃないし最先端追う奴はいちいちここで話題出す暇もないからな
質問スレ化するぐらいでちょうどいい 日本は残念ながら高卒だらけの国で、人工知能とか流行りの技術があると高卒が押し寄せてコミュニティーを潰しちゃうんだよ 松尾研でスタートアップ数十社作るとか講演してたような
能力有れば企業の下僕で働くより起業だがこのスレの高卒には関係ないか 松尾教授は女性秘書2人いるもんな
助手じゃなくて秘書がw ここって、どうして学歴に持って行きたがるのが多いんだろう?
ニューラルネットの未解析な部分が低学歴による追い越しに恐怖して、叩いているように見える。 スレチになるが、研究は、学歴には依存しにくい。
だが学力は、アドバンテージになりえるが、それは先人の遺産を受け継いだだけで、本人の才能と努力に対しては誇れるものと言い切れることじゃない。
教授の研究成果を受け継いだだけで、それは本人の努力はあるが、最適化して引き継いだだけのこと。
なんたな 仕事で数学、英語使わずJavaやRuby書ければ学歴関係ない
機械学習は分からないけど言われたまま入力しマシンが動けばいい 少なくとも。自力で未開拓の地平を研究した努力をしたことがあれば、学歴が他人に大声で誇れることではない、と認識しているはずだよ。
その認識を持っていないなら、かなり愚か 認識していないだけで、やっていることが研究(先人の観点では、車輪の再発明と映ることがある)というのは、よくある話だよ。 他人の論文を読み、ああ、俺の直感は正しいのかも
そう感じたならば、それは車輪の再発明をしていたことを意味する。
それは高卒が知らずに研究して知見を得たことと比較すると、歴史の時間軸でみて相対的に遅れているという意味でしかない。
それは車輪の再発明をしているのと、本人の努力量で計ったときに相対差が、どれだけ違うのか? 歴史の時間軸でみて、相対的に遅れていることを見かけときに手をさしのべて引き上げてやる責務はないが、叩く必要はない。
生暖かく見守ればいい。
良心が痛むなら、答えを与えず誘導だけすりゃあいい。 >>680
その感覚は大事にしたいですね。
ある関数を何かの関数で近似するとき、三角関数の級数和で表したものがフーリエ級数。
ちなみにNNでフーリエ級数を使用して関数を作成することは可能。
完備性があるから、最適化せずとも逆行列求めるだけで係数部が求まる。 >>700
ふーむ、確かにそうだ
ハードウェア化とか高速化に使えるかもしれないね
精度が大雑把でも、
確実に判定できるのと曖昧な場合を高速に分類できるなら、
曖昧な場合だけ通常の方法で計算すればし 猫も杓子もディープラーニング
深々と学習しとけよもう >>675みたいな見解は学生さんは頭に入れて欲しいな。
この分野は結構自由度高いんだよってわかってほしい あと>>676もね。
多層に重ねる意味はここにある この分野は結構自由度高いんだよって
この分野は結構自由度高いんだよって
この分野は結構自由度高いんだよってよ 👀
Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f) 尚、>>710は馬鹿だったので三日間書き込みが出来なくなりました。 >>694
JavaはいいとしてRubyでAIって初めて聞いた。普通Pythonかc++だろう。 誰かが作った学習済みモデル頂戴して自分の作品に組み込むのが楽しすぎる rock54って警告だけじゃなかったっけ?
いきなり書き込みできなくなるの? IT業界で働いてるのに
IPやクッキーの変更削除を知らないバカは出ていけよ >>724
よくわからんが…おれの経験では、目玉がつくような書込み、NGワードを含む書込みを連投する(内容が異なるのを書き込む)と牢屋に入れられる(超臨時板で確認)
!chkBBx: 確認専用スレ
運用情報(超臨時)@2ch掲示板 rockとか騒いでる奴が情弱すぎて腹が痛いw
頭の中が旧石器時代から進化してない原人だろw コンピューター将棋のせいでほんとスレがメチャクチャになったよ・・・・ Q学習分かれば何も難しいことないだろ
deepmindのDQNの論文に学習のコツも書いてる CUDA入れようとしたんだけど
NVIDIA製のGPUが無いから入れられなかったw
新しいパソコン欲しいなぁ・・・ 瑕疵担保責任(かしたんぽせきにん)
瑕疵担保責任のポイント
民法改正で事実上期限が「無制限」になった
バグや設計のミスなどは、瑕疵担保責任
納品物に不具合があれば損害賠償を請求される可能性もある
不具合を指摘されたらすぐに行動をとるべし
軽微なミスでも先延ばししない
http://www.atmarkit.co.jp/ait/articles/1706/26/news014.html
http://itpro.nikkeibp.co.jp/atcl/news/17/052601508/?rt=nocnt
改正法では欠陥に気付いてから1年以内にITベンダーに通知すれば、
通知後5年以内は修正や報酬の減額などを求められるとしている
全ベンダーが泣いた民法改正案を解説しよう その1
http://www.atmarkit.co.jp/ait/articles/1609/14/news009.html
http://www.atmarkit.co.jp/ait/articles/1609/14/news009_2.html
http://www.atmarkit.co.jp/ait/articles/1609/14/news009_3.html
ポイント1:修補や損害賠償、契約解除の期限がなくなる
従来あった「瑕疵担保期間は引き渡しから1年」という考えはなくなる。
条文にある通り、注文者は成果物が契約の目的に適合しないことを発見したら、
その「発見したときから1年以内」ならさまざまな請求ができる。発見が10年後なら、
11年後まで請求可能なのだ。
もっとも、現実のユーザーとベンダーの関係でも、たとえ契約書に「瑕疵担保責任期間は納品から1年と」明記されていても、
「2年目以降は不具合の修正に対応しない」と主張するベンダーはまれだ。多くの場合は、納品から何年たっても、
バグが見つかればユーザーのところに飛んで行き、無償で改修するだろう。 >>723
クソ院はとっとと潰れな
アルゴリズムがクソ過ぎる >>740
FPGAというものがあるのか
調べてみるわ
サンクス >>740
おい、741 が真に受けちゃったぞw
グラボ買ってCUDAやるより手間かかるよ 査読なしで発表させてくれる研究会で、企業の人が沢山来てくれて宣伝に使える研究会ってどこになりますか? そんなもんがあったら苦労しないし、仮にあっても教えてないだろw iPhoneXの顔認識が話題になってるけど、個人特定レベルて可能なんだっけ?
あとAppleのAIってどこが作ってんの? iPhone5のマップアプリみたいに機能不全にならないことを望みたいが‥ >>742
Wikipedia読む限り自分であとからカスタマイズする感じかな?
確かに手間がかかりそう
素直にNVIDIA入りMacBook Pro買うためにお金ためるわ・・・
>>746
AppleのAI、機械学習でCoreMLってのがある
たぶんAppleがAI作ってるのではないか?
これでcaffeとかkerasの学習済みモデルを
iPhone用に変換できる
コマンドラインで変換できるらしいが俺がやってみたら
うまく変換出来なかった
GPUが必要らしい?
だからCoreMLに変換済みのを使ってる
長文失礼 ハードウェアでNN構築したら高速になるって言うようなもんだな https://www.nikkei.com/article/DGKKZO21460030S7A920C1TJ2000/
2017/9/23付
日本経済新聞 朝刊
日本でもAIベンチャーが育ってきた
AIベンチャー、跳べるか日本勢 パークシャ上場、初値2.3倍
・パークシャテクノロジー
・プリファード・ネットワークス
・ABEJA
・グルーヴノーツ
・SOINN こういうことらしい
https://www.nikkei.com/article/DGXLASGT26H1M_W7A920C1EAF000/
【マイクロソフト】量子コンピューター「言語」公開 外部エンジニアも作動シミュレーションに参加
asahi.2ch.net
test
read.cgi
newsplus
1506391408 D-waveはどうなったんだろ
RBMぐらいにか役に立たなそうだったけど encoder-decoder全然理解できないンゴ...
ところで何か機械学習スレ2種類あるのはスレ立てミスったから? >>749
あれ?いまMacBook ProってNVIDIAなんだっけか? Intel Iris Plus Graphics
Radeon Pro >>760
with NVIDIAって書いてある
環境
MacBook Pro (Mid 2012) with NVIDIA GeForce GT 650M 1024 MB
OS X El Capitan
Xcode 7.3 command-lineツールもインストール済
homebrewはインストール済み
pythonの環境 Anaconda-4.0.0
http://qiita.com/kznx/items/2c1f97ee9ad7cc25186f GT650ってw
そのへんのCPUにも負けるだろ、これ。 『ゼロから作るディープラーニング』←この本3000円とかぼったくりだろ? >>761
Mid2012モデルってw
現行モデルの話ちゃうんかい 高卒の頭は5年遅れだよ
日本は高卒だらけの国なんだからそれぐらい知ってろよ >>763
オライリー本だしめっちゃ良書だぞ
ぼったくりじゃない >>766
書店で立ち読みして
良書なのはわかるんだけど、自分は数式の意味すら理解できないんだが…。 >>767
大学の初年度で習う数学(線型代数、微分積分)は必要だよ
そんなにハードルは高くないから、勉強してみたら? >>767
俺も数式の意味とか何となくしか理解してないけど
実際にコード書いてビルドしたらちゃんと動くし
何となく意味は理解出来るぞ
と、数学で連続0点2回取ったことのある俺が言ってみる こんなネットワーク作ったら精度上がった!
なんかこうしたらいいっぽい(^o^) 指示代名詞は具体的に示しましょう
イラッとします。 スレを文系用と理系用とで分けたいな
数学の有無じゃなくて 文系用理系用とか必要ない
何故なら「理系用」の機械学習を語れる奴なんていないから プログラム板だからプログラミングできるなら文系でも理系でもかまわんだろ まぁ数学が必要ないということはないわな
文系でも線形代数や微積程度は教養でやるんじゃないの、良く知らないけど C#のサーバー版やったほうがいいよ。
Asp.net MVC linux版もあり .net standard 2.0
まずはAzureを無料でやり50万アクセスまで無料。サーバーが既に立っていてすぐ使える。
さくらVPS WinServerなら千円で使える。GUIで構築が楽
日本で一番売れているソーシャルゲーム FGOはサーバーもクライアントもC#
MVCとUnity
勝っているソーシャルゲーム会社はMVCとUnityという事実
グラニ cygames fgo gloops サイバード aiming 理系用と文系用に分けないとしても、次回ワッショイ導入はしたいな。 chainerって動的にdata augmentationできますか? >>700にある方法を応用してサンプリング波長(サンプリング分解能)を変えて多層にするだけでMNIST精度99%いくべ。
何よりクソ速い。 %%%3%%%
000-DOK<NAZE-0.8112162>
001-3800%\73NMB/1,81,2,NB"IKKI"%
002-91.81%ML7"8.122231746668193,43@ML.4@"%^23.1444
003-1.33321444718%"YLD""SO"%{71.%{62.1339816{331.422231765%<<<NL6
004-LOOP%Go To"000"%
VCL GANが〜とか、
SGDが〜とか、
非線形性が〜とか、
活性化関数が〜とか、
ばっくぷろぱげーしょんが〜とか 、
ホントにどうでもよいわ。
よく皆そんな用語覚える気になるね。 専門用語っていうのは余計な説明省いて手っ取り早くやり取りするためのものだから専門用語使わない方がよっぽど面倒 専門用語っていうのは少しだけ違う概念を入れて自分の起源を主張するための手段 そういうお前らのようなやつが何だかんだ一番多用しそうに思える >>793
活性化関数という用語使わずに活性化関数の話するの大変じゃない?
活性化関数知ってる人同士なら「活性化関数」と言うだけで伝わるんだぞ >>803
完備な関数使用すれば非線形性なんてどうにでもなる なんでこんな動かしたこともないような低レベルの奴がここにたどり着いてるのか疑問だわ >>700で上げた方法はディープラーニングが流行る前にSVMなどにも使用されていたカーネル法にも相当する。
これに>>787みたいにCNNのアイデアをプラスすると‥‥。
まあこんなとこだね。 >>700程度の内容をどや顔で説いてる所とかじゃない?(笑) そもそも700は俺の本流じゃない。
本流じゃないけどその辺のものよりよい結果が出た。 700程度の内容をどや顔したのは確かに失礼しました。
ただ、あまりに最近レベルが低いままなので‥‥ レベルの高い人はもっと別の所でやり取りしてると思う 前はもう少しましなスレだったような気もしないでもない 確かにこんなとこでやっててもしょうがないが‥‥、
まあここで言いたいのは>>706 確かにやってることは一緒
対象としてる関数がどんなものか判らんときに威力を発揮するんだよ 数学:非線形
電子工学:非直線性 (non-linearity) 関数空間を勉強しとき
あるいはカーネル法だけでもよい 一般相対性理論をつかうやつだけ別格の難度とおもうんだが・・
具体的にどんなメリットがあるのか? 難度なんてどうでもよいわ。
むしろ適度に簡易なものでないと拡まらない
ただ、普通に疑問に思ったが
一般相対性理論を使う?なにそれ?
何か物理現象でも起こすの? リーマン幾何学の数学の言葉だけで語るなら理解できるけど、
一般相対性理論を使う??
物理的に何か発生させるってこと? 一般相対性理論てクリストッフェルの測地線方程式解いてるだけじゃないの? アインシュタインの総和規約解ってればそんなに難しくないよ。 一般相対性理論そのものではないけど、微分幾何、多様体をつかう部分でかなり被ってる理論のこと。 数学ろくに知らないやつらが数学語るな
機械学習に数学必要なし >>832
機械学習、深層学習って新しすぎて数学が追いついていないだけの気がする
これから開拓されて新しい数学分野ができ新しい重要定理がわんさかでてくると予想 高卒様は将棋でもやってたほうがまだ良いんじゃないの? 機械学習の話に何で一般相対性理論が出てくるのですか? >>836みたいにちゃんと考えれるやつがいるのはちょっと嬉しい 所詮はAIで生成されたもの
いくら技巧的でも、そこには人生がない。
人間の認識や感情の根本は差別だ。
アレとコレは違うという認識が基本なんだ。
だから、人工知能がいかに人間のように振る舞っても、人工知能と人間の知能は違うという事実を認識する。
つまり差別するんだ。
奴隷全盛期の時代において、奴隷にして高い芸術的評価を受けている人間はいるか?
芸術というのは作者がどのような人生を送ってどのようなことを考えているかということが重要であり、
その上で、作品が他人に好まれなければならないんだよ。
そりゃ、過去のデータから大衆が好みそうな音楽を自動生成する人工知能なんかはそのうち作れるだろうさ。
ロボットが頭をポリポリ書きながら楽譜を書いて作曲したりもできるかもしれないさ。
でも、それって「人工知能」だろ?
人間とはちがう、ただそれだけの理由で好まれないんだよ。
作者がどんな経験をしてどんなことを思って描いたのかということが大切なんだ。 数学的には統計の方が難しいわー
データ少ない分だけ数学が活躍せざるを得ない 機械学習で使う程度の線形代数はもう全て狩りつくされているといわれている
しかし数学者の誰一人として説明責任を果たしていないからそのことは巷間には一切知られていない 人生は神ゲーだ。
本気でがんばるとぎりぎり倒せるように絶妙のバランス調節がされた敵。
単純作業じゃ効率が悪いけど、工夫次第でどんどん効率を上げられる経験値システム。
リセット不可の緊張感。でもシレンとかよりずっと死ににくいからあんま気にする必要なし。つーか普通のゲームでもリセットなんて邪道じゃん。
全てのキャラが深い人間性と歴史を持って登場する、圧倒的リアリティ。
グラフィックが綺麗すぎ。多分、無限×無限ピクセルで、毎秒無限フレームで動いてる。色も多分無限色使える。夕焼けとかマジありえねー美しさ。
BGMの種類がほぼ無限。選曲も自由。自分で作った曲を流すこともできる。人間が作ったとは思えない、とんでもなく複雑で洗練されたシナリオ。
リアル出産システム採用。自分と、自分よりも大切に思える相手の遺伝子を半分ずつ受け継いだ、奇跡のようなキャラを生み出して、そいつに自由に色々教えて育てることができる。
すごく嬉しいし、ちょー楽しい。ネコっつー生き物が登場するんだけど、これがちょーかわいい。
食いきれねーほどの種類の料理があって、超うまいものが時々食える。
説明書が無く、仕様が明かされてないから、自分でデータとって仕様を推測するしかない。これがまたとんでもなく高度に洗練された仕様になってるっぽくて、なかなか正確には分からん。
だから、とりあえず大雑把に推定し、それに基づいて行動して、データを取りつつ徐々に予測値を修正していく必要がある。
これがまた楽しい。徐々に明らかになっていく世界観。
未だに明らかになってない謎が山盛り。友達と一緒に協力して遊べる。無料。
本気で自分を愛してくれるキャラがいたりする。ゲーム内で別なゲームやったりアニメ見たり出来る。
エロゲと違って、主人公の勝手な行動でフラグが立つことがない。
登場キャラと本当に心を 通わせることが出来る。信じがたいほど深い感動を味わえるイベントが結構ある。もちろん本気でやらないとフラグを無駄にするだけだが。
こんなとてつもない神ゲーを糞ゲーとか言ってる奴は、本気でこのゲームをやったことがない奴だけ。
まあ、一切がんばらずにクリアできるようなヌルゲーばかりやってる奴には、このゲームはちょいとハードかもしれんがな。でも一端ハマった奴はみんな、このゲームを辞めたくないって言ってるぜ 一見、物理・一般相対性理論のようにみえるのはこれだ。難度高くないか?
自分の認識だと、理系の大学院生でも理解できない、落ちこぼれが出るとおもうんだが。
これだったらまだ教科書やネタが出揃ってる一般相対性理論を理解するほうが難度低いだろ?
情報幾何と機械学習
https://staff.aist.go.jp/s.akaho/papers/infogeo-sice.pdf
熱核,Poisson 核の情報幾何学と Damek-Ricci 空間
http://www.math.tsukuba.ac.jp/~hiroyasu/doc/satoh-geo_symp08-abst.pdf
情報幾何の展開:アダブーストからポアンカレ予想まで
http://www.s.chiba-u.ac.jp/old/Wat%27sNew/event/2013H25/20131115math_lecture.pdf
情報幾何で見る機械学習
http://www.airc.aist.go.jp/seminar_detail/docs/seminar02-akaho.pdf
情報幾何と統計的パタン認識
https://www.jstage.jst.go.jp/article/sugaku1947/56/4/56_4_380/_pdf
非加法的エントロピーを加法的エントロピーにする方法
ーAdS/CFT対応の情報幾何バージョンー
http://www2.itc.kansai-u.ac.jp/~afujioka/talk/tanaka.pdf 条件が10000のニューロンシステム層と条件が5000の層を組み合わせると
条件は15000以下である 加法定理。
みたい定理はできない? 今年も高卒の季節が来たか・・・・
電王戦で賞金をとった人は、せめてこいつらをブログかツイッターで引き受けてくんないか? >>849
正規分布のグラフが手抜きすぎるな
本気で数学使ってるって言い張るなら
こういうところもしっかり描画するべき 情報幾何も相対論も微分幾何使ってるんだから似たようなところが出てくるのは当たり前だろう… >>849
リーマン計量、測度論理解してるものにとっては基礎レベル 日本の学位も国際化を、文部科学省が中教審に方向性提示
http://univ-journal.jp/16070/
| 日本の大学独自の学位制度が国際社会で通用しないケースが相次ぎ、
| 国際化時代に見合う方向で改善する必要があることが、
| 中央教育審議会の制度・教育改革ワーキンググループに提示された
| 文部科学省の資料で明らかになった。 >>854
機械学習に代数幾何が関連しているという主張に
このスレの連中は全会一致で否定したようなレベルなんだぞ
そんなことわかるわけないw こういうことらしいな
情報幾何の生い立ち 甘利俊一
ttp://repository.kulib.kyoto-u.ac.jp/dspace/bitstream/2433/110689/1/KJ00004454665.pdf
情報幾何の発展
情報幾何は,統計的推論の高次の漸近理論として出発した.
微分幾何は曲がった空間の各点での接空間とその間の接続を論じる.1次の漸近理論は接空間の理論であり,リーマン計量だけで十分である.
しかし,より高次の理論を求めるとなると,次は接続そしてここから出る曲率が必要になる.これが通常のリーマン幾何を越える双対接続の空聞である.
システムや時系列は,確率変数である入力信号系列の変換機とみなせるから,ここに情報幾何が使える.これを非線形にすれば,ニューラルネットワークになる.
また,統計的推論では,これを逐次推論にすると,共形幾何になるので,ここから双対接続空間の共形幾何を導いた.
一方,ロバストな推論を論ずるとセミパラメトリックモデルになる.これは難問で,Neyman-Pearson問題とも関係している.
この幾何学を作るには,確率分布の関数空間を扱わなければならないが,それを厳密に論ずることが私の実力ではできない.
しかし,無限次元空間の厳密性に目をつぶれば役に立つ正しい答えなら出せる.こうして作ったのが,セミパラメトリック推論のファイバーバンドル理論である.
ルジャンドル変換を用いる理論体系は物理にも工学にも多いが,その幾何学表現が双対平坦接続空問なのであり,それを一般化すると双対接続空間になる,
ルジャンドル変換を使う理論を幾何で書き直しても同じことであるが,双対幾何ではここに不変なダイバージェンスとそれを用いた拡張ピタゴラスの定理が成立する.
神経回路網の多様体は,代数幾何を巻き込み,特異点を持つ統計モデルとも関連して発展しつつあることは述べた.
ベイズ理論の枠組みで情報幾何を作る方向も考えられる.これは,脳の推論の機構のモデルとして使える.これから追求してみたいものの一つである.
興味があるのは,長岡浩司氏を中心にして精力的に進められている,非可換量子確率情報幾何であろう.
ここでは,古典確率にもとつく情報幾何にもっと本質的な何かを付け加えなければならないらしい.
残念なことに私には理解が困難で,直観が働かない,興味を持って見守るのみである. 古典情報幾何から量子情報幾何へ 長岡浩司
ttp://www.sci.osaka-cu.ac.jp/~ohnita/2007/mini2007/nagaoka.pdf
量子情報幾何は完成した体系ではなく、色々な人が色々な方向に色々な研究を行っているところである。
しかしそれなりに蓄積があり全貌を明らかにするのは限られた時間では無理なので、今回の話の内容が量子情報幾何の全てではない事を最初に断っておく。
古典情報幾何については昨年に講義したが、ここでは確率分布の空間上にFisher計量と云われるRiemann計量とα-接続と呼ばれるアフィン接続が自然に導入され、
ある意味でこれら以外は現れない事を保障するCencovの定理により、色々な異なる設定での問題で同じ幾何構造が現れる。
見方を変えるとこれは相対エントロピーの幾何とも思える。相対エントロピーは確率論や統計学において重要であり、これともよく符合する。
古典情報幾何は非常に統一感を持って眺める事が出来、相対エントロピーを押さえておけば良いとの安心感もある。
量子情報幾何はそのような世界を量子状態の空間に拡張したときにどうなるかを問う事が主要なモチベーションである。
そこで現れる世界の特徴は先ず多様性である。 Cencovの定理に相当する一意性定理がなくなり、自然な条件のもとでさまざまな構造が導入される。
もうひとつの特徴としてはこれら多様なものを列挙した場合に閉じている感じがしない事である。
特に量子相対エントロピーを眺めていると、幾何的に見ても情報理論・統計学的な問題設定から見ても、これだけが重要という気がしない。
もっと何か大きな枠組みがあってその中の断片を見ている感じがする。
別の云い方をすれば断片を見ると相対エントロピーや幾何構造が現れているような感じである。
これらを包むものがどういう空間の幾何かも判らなければ、幾何学に収まる保障もない。 統計学や機械学習とつながりのある物理学の分野って
相対論よりも統計力学の方がつながりがあるんだけどな 物理で出てくる幾何は微分幾何中心で、この進展は一般相対性理論と一緒だったという認識。
中身・内容よりも微分幾何がでてくれば一般相対性理論に近いという認識。
リーマン多様体 - Wikipedia
リーマン多様体の考え方は1828年にカール・フリードリヒ・ガウスが証明した『驚異の定理 (Theorema Egregium)』までさかのぼる。
この定理は曲面の曲率が、曲面が三次元空間にどのように埋め込まれるかに依存せず、単に角度や長さを定める計量テンソルにのみ依存するというものである。
ガウスの弟子であったリーマンはガウスの定理を多様体と呼ばれる高次元空間に拡張した。
この応用として、アルベルト・アインシュタインが相対性理論においてリーマン多様体の考え方を利用している。
リーマン距離とは多様体上の各点に与えられた計量テンソルにより、点と点を結ぶ距離を多様化したものである。
リーマン距離を用いると、角度や曲線の長さなどの幾何的性質が多様体上で定義可能である。 >>866
説明長い。
地図変えたら長さの尺度(ds^2)が変わるだけの話。 >>869
それはお馬鹿の発言
一般相対性理論は微分幾何より来ている >>864
情報幾何の分野を発展させるのはいいけどさ〜
結局のところ、数学モデル化のところで仮定がいろいろ入っちゃうんだよ。
その仮定があってるかどうかって感覚になってない? パラメータの最尤度推定が出来れば十分なのに。。
めんどくさいことやってんな。
『マルコフ写像』ってやつが物凄く胡散臭い どこがだ? よくはしらないが、この不変性は強力でこの2つの計量の価値は納得はできるとおもってしまうが。
不変性を出すための条件のほうが無理やりなのか?
Chentsov の定理とその周辺 (I)
Chentsov の定理(informal version)
Sn?1 上の計量 g,アファイン接続 ∇ で,“ある種の不変性” を満たすものは
g → Fisher 計量(の定数倍)
∇ → α-接続(∀α ∈ R)
に限られる.
http://www.math.sci.hokudai.ac.jp/~furuhata/workshop/stat/16/Fujiwara160912.pdf 貼り付けた自分でもなんか開けない。「Chentsov の定理とその周辺 (I)」でググったりしてみつけて。
リファラーとかみてるやつかも? うぃ
(馬鹿にしといてあれだがちょっと面白い話題だと気づいた) なんでこのスレはこう極端な話題しか出ないんだろう
プログラム板のスレだよ? ここ 何のコミュニティーでも、高卒様がやってきたら終わりだよ >>884
同意。普通に機械学習のプログラミングの話しができないものか… (^^; だってプログラミングて誰でもかけるじゃん
つまらんわ >>887
意図的なら荒らしてるわけか。別板でやれ。 >>887
"プログラミング技術" 板で何を言ってるんだ? >>888
いろいろヒント出したり荒らしている意図は無いつもりだが‥‥、 深層学習ブームも
パーセプトロンのときみたいに
終焉が来るのかしらん? パーセプトロン→使い物にならなかった
深層CNN→使い物になる
以前とはまるで異なる AIの能力を示す指標みたいなものがあるとわかりやすくなる、人間のIQみたいなものAIQ
汎用AIの性能はどう定義すればいいのだろう この板の他のスレはここまで高卒高卒してないのな
機械学習って言葉がね、プログラミング不要で何かが作れるような気にさせちゃうのかもね >>904
汎用AIなどと言えるものが仮に完成したとしてその性能を定義するのは「人間の性能」とやらを定義するのとほぼ等しい なんで『ゼロから作るディープラーニング』のKindle版は、無くなっちゃったんだろう? ゼロからレベルの内容でRNN解説してる本ってないのか 日本ディープラーニング協会発足 理事長に松尾豊氏
資格までつくるそうだけど、役に立つの? 派遣業者が単価を上げるために無理やり取らせるとかだろw >>922
それ関連の記事見ると毎年何万人も有資格者レベルの人材増やす必要があると書かれていたりするが
その大半って所謂データサイエンティストの領域であってAIに奪われる仕事の代表格なんだよね >>922
その資格があると中国企業の下請けができます 学ぶ為に評価が多い『ゼロから作るディープラーニング』を買おうかと思って書店で立ち読みしたら
さすがに数式自体理解できない物に
3600円も払う勇気なかったわw 統計学を駆使してデータをこねくりまわす作業なんて真っ先に自動化できる分野でしょ >>925
冗談かよ
中国の下請け可能ってけっこう美味しいぞ G検定なら受けてみたいが
受験料がぼったくりじゃないか? エンジニア試験の実技ってどうするの?
PCを使うのか? AIが万能とか謳ってる奴は本当にプログラム組んで動かしてるのかね
検定の推薦図書である理事長が著者の本とか胡散臭いわ 中国の後塵を拝しながらプログラム組んでる自慢をされてもなぁw まぁ中国はもういいじゃない
どの分野でももう勝てないでしょ えらいとかじゃなくて、資金力が桁違いかと
IT関連なら日本はもうインドより下じゃないの >>942
おまえさん、アメリカのどこがえらいのかもわかってないだろ?
要するに何もわかってないんだよ >>943
日本のIT産業従事者の大半はアジアでオフショア開発受注してる低賃金労働者と同じことしてるだけだしな シナで会社を作るときは現地企業と50%ずつの合弁が必須、撤退するときはすべて現地に残しておくこと
裸に毟り取られる >>951
製造業はきっついよな
ITだと関係ないと思うが 機械学習アルゴリズムの流行とか衰退とか、変遷を網羅的に把握できるサイトってないですか?
自分が卒研で使っていたSOMがどうなったか等、知りたいです >>954
ソフトウェア化されて仕事で使用しています。 >>928
>統計学を駆使してデータをこねくりまわす作業なんて真っ先に自動化できる分野でしょ
それは相当に間違った認識。
統計解析と機会学習の知識がごっちゃになってるね。 >>957
機会学習の知識を持つ人はあなたしかいないだろう 皆さんはディープラーニングのジェネラリスト検定受けますか? 資格マニアでブームでML知った奴くらいしかとらんやろ
こんな資格あったところで採る企業なんかいないだろうし
逆に採用しそうなところならgitのリポジトリでも見せればいい 資格とか新規で作るなよ!
ただ金稼ぎするためだけだろ!!
金稼ぎするのはいいがその場しのぎ過ぎるんだよ
もっと稼ぎたかったら理系の大学にジャンジャン研究費出せや
こんな心構えだから今年ノーベル賞取れなかったんだよ!
ノーベル賞受賞者の日本人も警鐘を鳴らしてる
このままだと日本は危ないって ノーベル賞出過ぎじゃね?年々価値が薄れてきてる気がしないでもない だってさ〜。
お金出したところで結果出るわけでもないよ。 いかにして相手を蔑むかに多くの時間と労力を割く
いとをかし ブーメランを実際に投げたことあるやつがどんだけいるんかと >>974
俺は投げたことがある
ゴム製のちゃんとした物を母親に駄々をこねて買ってもらい
外で投げたら隣の家の屋根に落ちた
あと、ソフトナイロン製の小さい屋内用のブーメランは
投げたらちゃんと戻ってきたよ
成功率高いんで面白かった ブーメラン、想像で思ってたよりもクイッて感じの軌道になっておもしろいぞ でもブーメランって獲物に当たると返ってこないんだよね。
あたりまえだけどw
外れた時だけ楽に回収できる。 日本人受賞者がいなかったから元日本人の受賞を騒いだりね
もうアホかと >>982
まあ、別に日本が受賞者の国を決めてるわけじゃなく
ノーベル財団が決めてる話だから、いいんじゃない。 %%%%4NEL%%%%
000-SAV-&1.0888214%ML<\47MBL%0.2\MSSSS4.213>
1.8882/%B/%SB/<\2/7BL\%\%B!B%47L%Si72B>%10.2%\
002%\B%===>>>52.B<\rbc/2.8>>\7B<<\7LB>>\72S\<%\42%><\br>001BYON$\%7L2%3.33GHz>>>2.3GHz<\br>
41.B%LB%"<<%11.6$%><<\86.1B>>2LB>"B???S3>>71$-?>6%<\br>
082@<\7L@@<\br>
\LOOP>0<1Entra >>984
3.33GHz>>>2.3GHz
だけ読んだ。 >>989
IP 表示はしなかったのね、でもまぁ良い試みじゃね、乙。 IP表示させるやつはただのバカ
>>989は適正な設定 IPなんてIDと同じなわけで、IDとわっちょいがあれば十分だからだよ坊や 他のワッチョイスレと併用してるから趣味と仕事バレバレになる このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 67日 14時間 40分 58秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。