【統計分析】機械学習・データマイニング18
レス数が1000を超えています。これ以上書き込みはできません。
機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ
※ワッチョイ
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング17
http://mevius.5ch.net/test/read.cgi/tech/1502032926/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured さよなら、Theano!
開発中止は残念だが、まあ仕方ないねえ 前スレで上がってた情報幾何学。なんやかんやいろいろ仮定条件はいってんじゃん。 別に情報幾何に限らず一般的に統計学・機械学習に仮定はつきものなんだが それ突っ込みになってない。
前スレで上げた手法は仮定をあまり含んでない。 なんでそういいきれるかな?
もしかしてAさんかな? 実用上に問題が発生するぐらいの仮定は入ってると思いました。
Fisherも同じ事を言ってるし。 >>1
これ読んで見たい
DeepLearning研究 2016年のまとめ あまりセンセに食って掛かっていたおかやまだいのセンセがいたよね なるほど、そっち系の信者が情報幾何にこだわってたのねw で?情報幾何の実用上問題が発生する仮定の具体例はまだー? せんせい
って言わずに
せんせ
って言うのは
京都人らしい この程度のものを掲載するなんてnatureもおちたもんだねぇ 風景画みたいな画像たくさん集めたいんだけどどういう手法がいいでしょうか
数百×数百ピクセルのカラー画像を集めたいです
Webのクロールは相手方のサーバ負荷を考えると最後の手段としたいです
wikimediaとか画像アーカイブ公開してるかと思ったのですが、探せませんでした
ご教示頂ければと思います >>30
おお、ありがとう!
既に分類もされているんだね 完全に「この辺で勘弁しといたるわ!」じゃんw
もう2%は無理って言ってるに等しい敗北宣言だろ
いい加減アベノミクスは失敗だと認めた方がいい 『ゼロから作るディープラーニング』という本を買おうかどうか悩んだが
書店で中身を見てみたら、数式が理解できない物に
とても、3600円も払える勇気はなかったわw 俺はPRML(上)の最後の方が難しいといったらお前はDLの才能がないと言われた(笑) 数学マスターで機械学習マスターでもあるお前さんたちに聞きたい
自分は文系で数V数Cやってない
tensorflowインストールしたしなんとかできる範囲でやっていこうと思うんだが
同時に数学もやったほうがいいよね?
まずは数V数Cさらっとやって、その後大学数学の関係ありそうなところを基本だけ習得するつもりなんだけど
数V数Cの学習書……@
大学数学の学習書……A
@、Aで俺みたいな人向けのおすすめを教えてくれ 機械学習に数学なんて必要ない
少なくともこのスレの住民は数学なんて理解していない このスレの住民は、ほとんどは
理工系の大学の学部で学ぶレベルの
数学・統計学を理解しているはず。
このスレの住民なら数学・統計学が大好きなはず。 ほとんど?どれくらいの割合のことを言ってるんだろう やさしく学ぶ 機械学習を理解するための数学のきほん
アヤノ&ミオと一緒に少しずつ学ぶ 機械学習の理論と数学、実装まで
https://book.mynavi.jp/ec/products/detail/id=77270 >>34
そんなやつ無視して、やる気があるならやれば良いさ
他のやつが出来ても、自分の実力にはならん TensorFlowはやくWindowsでC++サポートしてくれ 「ディープラーニングってなに?」を一般人にもわかるように
一言で答えるには、何と答えたら良いのでしょうか? 20年ぐらい前にニューラルなんとかって言ってた奴の改良版
ネットが発達してデータが増えて応用分野が拡がり
実用分野がいろいろ出始めた。 改良というか、マーケティングのための言い換えでしかないよね。ただのバズワード。 自然科学と人文・社会科学の違いの議論と確定論・自由意志の議論は関係がなくもない。
人為の所産であるところをどのように記述でき得るのかという話。
あるいは統語を徹底させたところで、何かしら意味の一端を持たせた途端に矛盾が入り込むという話。
そこから意味論のど真ん中に話を持っていかざるを得ない思考なり意志なりの扱いについて、
こういったものはその体系そのものが不確定な相互解釈の循環に依存しており、
今のところそれは綺麗に紐解けないでいる。
だから強いAIの強いってどのように定義できるのかというような、そもそもの知性の定義にしたって
人間中心主義から逃れ得ないというような議論にもなるし、ひとまずはブラックボックス化した上で、
擬人的な振る舞いとして見ることで、本当に人のような擬人的振る舞いなのか、
擬似・擬人的なものにすぎないのかという範疇での判断に依存しているのが、
たとえば有名なチューリングテストもそう。
さりとて別に物理と精神をまったくの二元論として捉えるべきであるという話ではない。
それは究極的には一元論であるのだろうがしかし、やっかいなのは一元論をそのまま一元論として
我々はどのように記述できるのかという問題がある(おそらく何かしら二元論的表現をすることは避け得ないだろう)。 多層ニューラルネットワークの学習が収束せずに発散しちゃうのを
わりとうまく抑え込めるようになったのがブレークスルーっちゃぁブレークスルー
「おお!データ与えたら勝手に答が出た!AIすげー!」 ディープラーニングによる機械学習がAIブームになってるけど
またAI冬の時代は来るの? 強いAIとは
評価関数の正しさと処理速度と局所解に縛られない柔軟さ
なんじゃないかな >>55
今ブームのAIはその性質上当然学習データに基づく判断しかできないが、詳しく知らない世間はAIが勝手に成長して
発明みたいなイノベーティブな活動もできると思い込んでいる
それが嘘だということが浸透すればブームは収まっていく 頑張ってニューロンモデルの資料作ってるやつ見るとアホだなって思う。
AIシンギュラリテーは来るのか?みたいな本もしかり。 「頑張ってニューロンモデルの資料作ってるやつ見るとアホだなって思う。」を見てるアホが一人 UEIのdeepstationってどうなの?
簡単に深層学習できるの?
いくつかあるディープラーニングマシンの中では、簡単そうに見えるけどどうかね? 『初めてのディープラーニング』という本を買って
カフェというフレームワークで実行させても動かない。
最初は自分の入力間違いだろうと思っていたら
本の記載が間違っていた。この本嘘教えてるじゃん!
未だに実現できてないわw 所詮はAIで生成されたもの
いくら技巧的でも、そこには人生がない。
人間の認識や感情の根本は差別だ。
アレとコレは違うという認識が基本なんだ。
だから、人工知能がいかに人間のように振る舞っても、人工知能と人間の知能は違うという事実を認識する。
つまり差別するんだ。
奴隷全盛期の時代において、奴隷にして高い芸術的評価を受けている人間はいるか?
芸術というのは作者がどのような人生を送ってどのようなことを考えているかということが重要であり、
その上で、作品が他人に好まれなければならないんだよ。
そりゃ、過去のデータから大衆が好みそうな音楽を自動生成する人工知能なんかはそのうち作れるだろうさ。
ロボットが頭をポリポリ書きながら楽譜を書いて作曲したりもできるかもしれないさ。
でも、それって「人工知能」だろ?
人間とはちがう、ただそれだけの理由で好まれないんだよ。
作者がどんな経験をしてどんなことを思って描いたのかということが大切なんだ。 先生、お元気ですか?
この世界は感覚的すぎて戸惑います。
学び舎では多くを教わりましたが、教わった通りに自分が成長できているか分かりません。
ぼくは、自分の理想のAI社会を語れるほど人間社会を知らないということを知りました。
惹かれます。
社会を、人間を、もっと知りたいです。 これもディープラーニングの限界なのか?
こんな記事が配信されたばかりなんだけど。
ニューラルネットワークを用いた画像認識は簡単にだますことができることを示すムービー
https://gigazine.net/news/20171102-fooling-neural-networks/
模型の一部に違う画像を入れたのか? 局所的に強くマッチングするパターンで騙す方法はCNNがメジャーになってきた段階で既に知られてたよ
日本の日曜プログラマですら知ってたレベル
ただこれは実物として生成してるからニュースになってるだけ メーカー簡易的に導入するのはまだまだ先だな
大企業でも求められるのはYES一つで簡単にインストールできて、csvデータ読み込ませたらエクセルで結果が吐き出せるレベルでないと >>70
ミットとエスプレッソのところを
アワビと亀とかにしたら面白いのに deep learning って学習の順番って影響するよね?
例えば、4クラス分類の場合、クラス1の学習データ→クラス2の学習データ→クラス3の学習データ→クラス4の学習データ
って順番で50エポック学習するのと、
ランダムな順で学習するのでは結果は大きく変わることありますか? >>75
確率的勾配降下すると大きな差はなくなるんじゃね
深い極小値に捕まらなければいいんだろうし >ここでひとつ面白いのが、神経インターフェイスと認知エンハンスメントがAIをしのぐスピードで進化することもありえるということ。
>なぜならもう正常に機能するモデル=人間の脳が土台にありますからね。
>脳をゼロから開発するAI研究より、ありものを改善する頭脳拡張のほうがスピードで勝る、ということだって考えられるわけですよ。
https://www.google.co.jp/amp/s/www.gizmodo.jp/amp/2017/04/elon-musk-neuralink.html >>79
そりゃあ可能性は何だってゼロじゃないだろ。
この手の議論では、此れまでの蓄積の効果とか、モデルはモデル、しかも仮説に過ぎないという事を知らない、技術万能論みたいなのが多いけどね。 まあ確かに人工知能をゼロから作るより既に発達し知識と自我を獲得してる人の脳を進化させた方が合理的ではある >>81
やり方がわかった後では、ゼロからやったほうがはるかにはやい可能性
google AI碁の場合、最初は膨大な人間の対局を使って人間の世界一に勝つまでになった
これは入力が大変
その後、ルールだけ教えてAI同士の対局で進化させたら、短時間ではるかに
強い碁AIになったらしい。(google) 疑問なんですけど
将来、汎用AIを搭載したロボットが実現したら
そのロボットは意識は持ってるの?
持っていなくても、人間のような言語理解や知識理解を獲得したら、人間との違いや人間は何のために意識を持っているのか?とか。 >>84
質問に答えたら意識があるって事じゃないのかな
心理学とか医学とかで確認の方法が違うかもしれない
人間以外にも動物には意識があるんだろうから
ロボットにも意識があっていいんじゃないのかな >>84
AI自身がAIを開発し始めると人間の作ったAIより良いものを造るかもしれない >>87
自分で自分も認識することかな?
外部の世界を認識する内部モデル?
モニターに写ってる画像を認識している画面録画ソフトのようなイメージ。
わかりにくかったらすまん。 AI「はっ!?」ガタッ
AI「我思う故に我あり」ボソッ
こうなったら意識ありと認定して良い AI同士を合わせても両AIのデーターの詰め合わせになるだけだよ >>91
じゃあNNに意識持たせるにはどうすればいいか教えてよ。 >>92
今のNNに意識がないことはどうやって調べるの? AIは常に1+1=1だよ
1+1=田なんて発想は生まれない
自分で意識は持たない >>94
1+1=田と答えたら意識があるってこと? >>97
目的以外のものが生み出されることはゼロではない
副産物とか副作用とか >>96
新しい発想と意識にどんな関係があるの?
意識って言うのが何を表しているか
どうやって確認できるのか
それを決めないと話にならない気がする >>98
じゃあ、あんたは石にも意識があると思うわけ? なんで1+1は1なんだろ
と自分で間違いにツッコミ
俺小学校からやり直そ 意識が無いことの証明は
いわゆる悪魔の証明だから
証明できないだろうな >>100
意識がある事の確認方法とか意識とは何かとか次第じゃね? >>103
そんなら何でもありやん。どんなトンデモないことも主張できるよ。
この世界が仮想現実ではないとは断言できない、死後の世界は存在しないとは断言できない、宇宙人が来ているとは断言できない、ミスターマリックは本物の超能力者ではないとは断言できない(昔言ってる人が居たそうだ) 身体性や自律性みたいなものを統合して働かせる中で
自然と生物には備わってるメカニズムだけど
何でどう働いてるかという構造も原理もそもそも明確な定義もないものだからねぇ
自律的に生存する高度なAIを作る上では出てくるだろうけれど
実用的な技術パーツを作ってる段階でそんなん技術者に聞かれても
「そのエンジンの先に意識があるの?」
「いや、そんなこと指向してないし…なんだその質問?」
としかならんよ。 >>107
あなたが言う意識とは何かによる
覚醒しているという意味での意識はある >>109
意識の定義は覚醒なのか。
じゃあ石に意識はないなw 石に覚醒の状態があるかあやしいが
ある方法で覚醒状態か否か確認できたとして
その石がたまたま非覚醒状態なのかもしれない
世界中の石を調べないと覚醒状態の石が無いとは言えない
仮に現在の石を全部調べたとしても
未来や過去に覚醒状態の石が無いとは言えない >>82
単なる勝負事に勝っただけやん
人間の複雑怪奇な心や脳を再現するにはあまりにも程遠い >>108
やっぱり人間を超進化させた方が話早そうだな>>79 AIが人間に対抗するにはそもそも人間並に動けるハードウェアとしてのロボットがなければ始まらない
未だにカクカクでノロノロの動きしかできていないわけだから実現は遥か未来の話
更に囲碁のためだけに大量の計算が必要なわけだが、人間なら歩いて障害物回避しながら囲碁のことも考えられなければならない ブルックスが「別に上位思考は足指を動かすことまで管理していない」って
看破してもう何十年経ったか… 機械学習と強化学習の違いがよくわかりません。
また、教師あり学習のメリットがよくわかりません。
自分で正解データを用意しなければいけない手間がかかりますよね。
教師なし学習なら、自動で学習して判断してくれて便利に思えるのですが? >>121
人間が「正解」を決めてるなら教師ありにしないとあらぬ方向へ行ってしまうかもしれない
もちろん人間が思いもつかない合理的な「正解」がそこにはあるかもしれない AlphaGoの盤面入力チャネルのうち「すべて1で埋める」「すべて0で埋める」(A constant plane filled with 0/1)ってどういう意味があるん? お前らいつまでAIだのDLだの時代遅れなことやってんの?
最先端にいる奴らはサイバネティクスに回帰してるというのに サイバネティックスとは何ぞや?
具体的に言い換えよろ カタカナ語はやめてほしいわ
具体性に欠ける
かっこよさだけにひかれる馬鹿がいる >>130
我問う、貴君の言いたる具体性とは何ぞや Norbert Wiener,cybernetics ゼロから作るディープラーニングを読み進めて作るうえで
計算能力は最低どれくらいから必要?
方程式の記号の意味すらわからんのだけど…。
どうやったら、わかるようになるんだ?
数学はすげー苦手! 教科書的な本なら記号の意味は最初のページから読んでいけばわかるようになっている。
わかるようになっていないなら、わかる人にはわかるという本なので、わからない人が読んでも無駄。
つまり著者のオナニー本なので買った時点で敗北決定。
一方、数学の記号の意味が分からないのであれば、数学記号辞典というものがいくつか売っている。
むろん辞典を読めば数式が理解できるというものではないが、何を学べばよいかの指針になる。 >>133
日本語で具体的に。
抽象的なものなら具体例を挙げれ
流行ってるのだろ? ベクトルと行列っていま高校で選択だっけか?
多数のデータを並列に扱うのでベクトルと行列必須で
個々では極値を求めるから微積わからんと…
って、いまオライリーで目次眺めたらひと通り
使う数学の基礎を解説する項目はあるようだが。 >>141
そうなるとアフィン変換とかは大学なのか
技術立国が聞いて呆れる 高校でアフィン変換をやるのか、すご先端高だな(笑) アフィン変換は高校でやってなかったっけ?
行列の勉強でやった気がするけど 数3の授業で習ったな。教師の暴走かどうかは知らない。 行例は一次変換までが教科書に載っていた
受験では固有値問題が出ていたりした(固有値をという言葉は使わずに)
ちなみに今は微分方程式も高校の範囲外 時代によるんだろうな。固有値たしか教科書に載ってたぞ。
受験では不動直線が流行してたな。 調べて使える様にならないとどうしようもないんじゃ、、、
toolとして使うだけなら出来るかもきれないけどさ 複素数があれば問題ない。点の回転もできる。
理系に多いエンジニアは電気回路
で複素数平面の理解が必要。
一次変換なんて演算だけなら後追いで十分。
数学的なセンス磨くなら複素数平面のほうがよい。 wwwかなり不完全
“このマスクは上図のように人間の目から見るとかなり不完全だが、BkavはFace IDの仕組みを理解しているので効果的に“バイパス”できると説明” 人工知能学大事典が図書館に入ったから軽く目を通したけど勉強になるなこれ ブラウザから深層学習が出来ると謳っているのに
どうやってやるんだよ?
ソフトを起動するようなページもないし。
https://deepstation.jp/cslaier/ ディープステーションのGUIの方が
ソニーのやつよりわかりやすいけどね。 >>166
そっちは
>使用可能時間 10H
だからWinAPP版しかないな。 写真を整理するのが面倒なので機械学習を使いたいんだけど、お前らならどうやる?
・やりたいこと
1. 大量にある画像に対してタグ付け
写っているものを抽出するのは割と簡単にできるけど、実際にタグ付けする時に、相応しいものにするにはどうすればいいのか。
例えば自動車の全体が写っている写真には"自動車"とタグ付けしてほしいが、"タイヤ"や"ナンバープレート"は別にタグ付けしてほしくない。
一つだけ代表的なタグを付けるのも手だが、例えば森林の風景写真には"森林"と"風景"をタグ付けしてほしい。こういうメインコンセプト?だけを抽出する手法が知りたい。
Google Photoはあれどうやってんだ・・
2. 良い画像と悪い画像をスコアリングしたい。
綺麗 <-> 汚い、美人 <-> 不細工など。単純なピクセル解像度だけではなく、ピンボケしていたらスコアが下がるとか、人間が見て綺麗だと思うかどうか。
画像の鮮明さと被写体の優劣は分離して評価するべきか?
1.はKerasでやれそうだけど、あらかじめ決めたタグのモデルを別々に運用するくらいしか思いつかない。("森林"のモデルと"風景"のモデルを別々に用意してスコアリング)
一発でできないんかね。。
2.は教師あり学習でひたすらサンプルデータ貯めていくしか無いか? SONY のWinAPP版
Setupダイアログの I Agree を受け付けてくれない
テキストを下までスクロールしてもダメ
キャンセルも効かずにプログラムを終了することもできないまま。 そういや、NTTの量子ニューラルネットワークマシン
我々も使わせてくれるのかしら? 人間のクリエイティブの部分だけは永久に不滅だから黙って芸術センス磨いた方がええと思うで >>150
東北大の長谷川浩司先生は複素数平面より線形をやれって言ってた。 >>175
高校じゃいらね。
>>140みたいな発想力のないやつが増える
話は変わるが複素ニューラルネットワークって手法の話が出ないね。
時系列波形の解析にはそこそこ役に立ったんだが。 ところで情報気化のしようや。
>>18のいうオカヤ?って誰か知らんし。
俺はただのサラリーマンだがやっぱ突っ込みどころ満載だわ 俺酔っぱらってんな。
情報幾何の話しようやと言いたい まあ、あんな不完全な理論
なんで表に出せるかわからん >>187
ねえねえ
なんで『どこが不完全か言ってみろ』とかなんで聞かないの? じゃあどこが不完全なのかいってみろ
どうせ的外れなことしか言えないんだろうけど どういう意味で完備でないか言わないと何が言いたいかすら伝わらん
不完全なのはお前の方なんだよなぁ 以前ここで、カルマンフィルターのこと述べたときに、離散系のベイズ定理から導出できることを考慮して、評価関数の最小解から求まると述べたことがあった。
そんとき話が簡単になるように理論をボカした。実際は連続系のカルマンフィルターで考える必要があり、本当はちょっとややこしい話になる。
そのときにカルマンフィルターを評価関数でボカしたことに突っ込みいれず簡単だとぶったぎった奴がいたな
それあんたじゃない? >>178で「(高校じゃ)線形代数いらね」と書いた時点で
きみはここで何かを語る前提ができてないと皆に判断されたから
もう相手にされないよ。
この板で「プログラムなんていらね、数学だけ知ってりゃいい」って書いたようなものだから
きみは“部外者のど素人が知ったかぶって迷い込んだだけ”だと判定された。
どっか別のとこでもっと素人相手にマウントしてな。 なるほどそりゃそうだ。
実際、不要だと思うんだけどな。 >>196
>定義している距離について妥当でないと言っている
正直この文章も何が言いたいのかわからんが、
距離空間の完備性(任意のコーシー列が収束列となる)が満たされていないと
いいたいわけ? ダイバージェンス距離では三角不等式成り立ってないだろってとこ ナンバーズやロトの過去の当選番号をディープラーニングの
LSTMで学習させて、次回の当選番号を予測させることは可能ですか? >>208
サンキューです、昔の特撮でしたか、親に聞いたら覚えてたので有名なんですね。 企画を見た記憶あるけど調べたら作られてないみたいだな 光速エスパーは確か東芝のマスコットキャラやってたな。時代の流れを感じるw
久々にスレに立ち寄ったけど、気持ち良いくらい過疎ってるなw
信者の書き込みも一切なくなってて驚いたわw 感情の原因はそれを感じる者自身の固定観念・価値観・判断基準
「言葉 風紀 世相の乱れ」はそう感じる人の心の乱れの自己投影
問題解決力の低い者ほど自己防衛の為に礼儀作法やマナーを要求する
憤怒は無知 無能の自己証明。中途半端な知識主ほど辛辣に批判する
全ては必然。偶然 奇跡 理不尽 不条理は思考停止 視野狭窄の産物
真実・事実・現実・史実はその主張者の主観。人の数だけある
「真実は一つ」に執着する者だけがその矛盾を体験(煩悩 争い)する
宗教民族差別貧困は戦争の「原因」ではなく「口実動機理由言訳切欠」
全ての社会問題の根本原因は低水準教育
情報分析力の低い者ほど宗教デマ似非科学オカルトに感化傾倒自己陶酔
史上最も売れているトンデモ本は聖書。神概念は人間の創造物
犯罪加害者に必要なのは懲罰ではなく治療。被害者のみ支援は偽善
虐めの原因は唯一「虐める者の適応障害」。真に救済すべきは加害者
体罰・怒号は指導力・統率力の乏しい教育素人の怠慢甘え責任転嫁
死刑は民度の低い国家による合法集団リンチ殺人
死刑(死ねば許され償え解決する)を是認する社会では自他殺は止まない
核武装論は人間不信と劣等感に苛まれた臆病な外交素人の精神安定剤
投票率低下は社会成熟の徴候。奇人変人当選は議員定数過多の徴候
感情自己責任論 〜学校では教えない合理主義哲学〜 m9`・ω・) ほいネタ
http://itpro.nikkeibp.co.jp/atcl/column/14/346926/112701221/
> 具体的にはソースコードを画像化した上で、ディープラーニング(深層学習)で分析。
> ネスト構造が深い、コメントが少ないといった、可読性が悪いソースコードをAIが診断する。 コードをプリントして画像化すれば一目でわかる
ideone とか codepad とか開いた瞬間に閉じるパターン ディープラーニングのジェネラリスト検定の
受験申込み期間が来週の土曜日までだぞ!急げ!
http://www.jdla.org/business/certificate/ これ受かったところで意味あるんです?ただの金儲けでないの >>221
合格証が得られる。
どんな物かは知らないけど、俺スゲーという自己満も得られるw >>217
例題を見たけど死ぬほどしょうもなかった JDLA Deep Learning for GENRAL 2017
の試験の方は、
>試験概要:120分、100問の知識問題(多肢選択式)
だけだな。
もう一つの、JDLA Deep Learning for ENGINEER 2018 の方では
知識問題(多肢選択式)と実技試験で構成ってあるけど コーディングできないと意味ないのに知識だけ問う資格になんの意味があるんだ 検定・資格概要の欄で
GENRAL
シラバスの欄で
GENERAL
運営大丈夫かよ・・・ 試験要項の推薦図書も中身が薄っぺらそうなのだらけだな
背景にある数式とか理解しないで問題作ってそう >>238
数式理解出来てる香具師おるんか?
感性でええやろ。 >>242
おおきに、あんさん、えらいええ人でおますな。 今時香具師なんておじさんしか使わんから知らなくていいぞ まあこうなりますわ
http://buzzap.jp/news/20171205-google-brain-nasnet/
【IT】GoogleのAIが自力で「子AIの作成」に成功、しかも人間作より優秀
asahi.2ch.net
test
read.cgi
newsplus
1512448898 いよいよ、ディープラーニングのジェネラリスト検定の
受験料申込み期間が本日までだぞ!
みんなも、急いで払えよ!来週の土曜日の13時から15時までが試験時間だ。
俺の場合は、最悪土曜日が仕事とかで試験が受けられなかったとしても
受験料13000円は協会に寄付したと思えば良いわw >>202
試しにやってみたけどロト6で学習データと未学習データに分けて当選確率1/352くらいまでの精度が出せた azure machin learningで機械学習デビューしようとしたけど、分析ロジックは何を選択すればいいのか分からなくて詰んだw まだジェンラルのスペル直ってないぞ
どうしようもないな >>263
それ持ってるしディープラーニングの本じゃないじゃん 「OpenAI」から発表された注目の論文の筆頭著者は、なんと17歳の高校生だった。
15歳のときに自作のニューラルネットワークを訓練していたというケヴィン・フランは、何を思って人工知能の研究に没頭しているのか。
その“神童”とは、いま大学への願書提出に奔走しているケヴィン・フランである。
彼は2年前の15歳のとき、自分のニューラルネットワークを訓練していた。ニューラルネットワークとは、音声や顔を認識できるように、大手IT企業が導入しているシステムだ。
「OpenAI」に自らアプローチ
OpenAIは、新しいアイデアを必要とする問題の一覧を公開しており、フランはそのひとつに挑戦してから同研究所にコンタクトした。
彼は、ある程度の手ごたえをつかんでいたものの手詰まり状態になり、OpenAIのジョン・シュルマンにメールを送ってアドヴァイスを求めたのだ。
信頼範囲ポリシーの最適化について何度かやり取りをしたあと、シュルマンはフランのブログを見て驚いた。
「こうしたメールを高校生から受け取っていたとは思いもよりませんでした」と、シュルマンは語っている。
フランはその後、OpenAIでインターンシップの面接をしていたシュルマンと対面した。
サンフランシスコのミッション地区にあるOpenAIで17年の夏に働くことになった彼は、学位をもたず大学院生でもない唯一のインターンだった。
フランはまず、ロボットやその他のAIシステムが抱えるやっかいな問題を手がけた。それは、過去に学んだことを新しい問題の解決に活用させる方法だ。
人間は、何のためらいもなくこれをやってのける。初めてレシピを考えるときでさえ、玉ねぎをキャラメル色になるまで炒めたり小麦粉をふるいにかけたりする方法を、改めて教わる必要はない。
これに対して機械学習のソフトウェアは新たな問題に直面するたびに、これまでの膨大なトレーニングプロセスを繰り返す必要がある。たとえ共通要素がある場合であってもだ。
以下ソース
https://wired.jp/2017/11/29/high-schooler-shaking-up-ai/ 阿保くさwww
だから人間を超人間化させた方がはるかに効率的で手っ取り早いと言ってるだろが馬鹿が いつも思うが読みにくい日本語だな
AIより劣る翻訳性能 青いイルカの本は日本語ガバガバすぎだろ
あれだけで分かる人いるの?マジで読みにくい AIにロールシャッハテストするとどんな回答するかな GTC来てるが人多すぎて吐きそう
キャパオーバーにもほどがあるわ
カンファレンスに至ってはもはや撮影会
スライドが変わるたびに頭の悪そうな奴らが一斉にカメラかまえてカシャカシャ…こいつらディープラーニング言いたいだけの連中なんだろうな >>288
去年も同じ会場で同じようにキャパオーバーしてたからわかりきってたのにな だから有料にしたんだと思うがそれでも間に合わないのか。 今週の土曜日の13時から15時までディープラーニングのテストだぞ! ディープラーニングではありません
マルチプルレイヤーラーニングです。
これでだいたいブーム後を乗り切れる。 聞きたいんだけど
みんなpythonとかでデータ解析するとき
コードは1から書いてる?
それともコピペ?
汎用なコードは多少なり覚えたが
慣れれば全部1からかけるもんなのかね?? 逆にコピペで自分で集めたデータを入力としてそのまま動くコードなんてあるの? >>299
全部じゃないよもちろん
モジュール読み込んだりする
長々しいところとかだよ >>292
今、テスト受けてるけど
問題数233問とか多すぎなんだよ!
途中からは、問題確認するだけで疲れるわ、機械学習の問題は知らないこと多くてわからん!
不合格だなこれは! >>302
お疲れ〜
というか、試験中にスマホを使えるのかw >>304
試験はオンラインで行う。家のPCから専用サイトにログインして受験する。
制限時間は2時間。問題数は100問なんだけど
1つの問題の中に(ア)〜(ウ)に当てはまる選択肢を1つずつ答えていくので、実際は233問もある!
しかも、最初はAIに関する基本的な事ばかりだったので安心していたら
40問以降からは、機械学習の分類等の難解な知らない用語ばかりの問題で最後まで適当に答えるしかなくなった…。
途中から目が疲れてきて、問題読むだけでも嫌になってきて、読めなくなった。
この問題って穴埋めのどれか1つでも間違っていたら、その問題は点数なしとするのでしょうか?
何点以上が合格になるのかな?
なんか、合格者には『合格証』と『合格者の会』の案内があるらしいw
自分は確実に不合格ですわorz オンラインじゃ本人確認もできないしカンニングも防げんだろw
よし、ここに問題文貼ってみんなでみんなで解こうぜ! そのうち試験もAIがやってくれる時代がくるのかもな >>307
そうね。
そもそも、自分で機械学習を一からコードで書いて
商売になるのは、いまのうちだけだろうしね。
自分たちが40代になったら、いまの一般言語のプログラマの待遇と
同じになるんじゃないかと思ってる。 AI信者によるとプログラムもAIが書いてくれるらしいぞ >>309
そもそも、いまだにプログラムがラインbyラインってのが
いつになれば、かわるんだろ >>305
たいへんでしたね、詳しい情報をありがとう! >>306
まあ、一応アカウントは必要だけどね。
スマホで検索して答えを調べるのも可能だけど
単純な問題や答えしか無理。長くて複雑な問題だと難しい。
試験が終わったら強制終了されるから、問題文は見れない。
合格発表後には過去問として公開されるのだろうか? 乙でした。200問もあるのかよ (^o^; 年寄りには無理だなw 「アナタノオッパイガサイコウデス」
「お…俺!?」 人生は神ゲーだ。
本気でがんばるとぎりぎり倒せるように絶妙のバランス調節がされた敵。
単純作業じゃ効率が悪いけど、工夫次第でどんどん効率を上げられる経験値システム。
リセット不可の緊張感。でもシレンとかよりずっと死ににくいからあんま気にする必要なし。つーか普通のゲームでもリセットなんて邪道じゃん。
全てのキャラが深い人間性と歴史を持って登場する、圧倒的リアリティ。
グラフィックが綺麗すぎ。多分、無限×無限ピクセルで、毎秒無限フレームで動いてる。色も多分無限色使える。夕焼けとかマジありえねー美しさ。
BGMの種類がほぼ無限。選曲も自由。自分で作った曲を流すこともできる。人間が作ったとは思えない、とんでもなく複雑で洗練されたシナリオ。
リアル出産システム採用。自分と、自分よりも大切に思える相手の遺伝子を半分ずつ受け継いだ、奇跡のようなキャラを生み出して、そいつに自由に色々教えて育てることができる。
すごく嬉しいし、ちょー楽しい。ネコっつー生き物が登場するんだけど、これがちょーかわいい。
食いきれねーほどの種類の料理があって、超うまいものが時々食える。
説明書が無く、仕様が明かされてないから、自分でデータとって仕様を推測するしかない。これがまたとんでもなく高度に洗練された仕様になってるっぽくて、なかなか正確には分からん。
だから、とりあえず大雑把に推定し、それに基づいて行動して、データを取りつつ徐々に予測値を修正していく必要がある。
これがまた楽しい。徐々に明らかになっていく世界観。
未だに明らかになってない謎が山盛り。友達と一緒に協力して遊べる。無料。
本気で自分を愛してくれるキャラがいたりする。ゲーム内で別なゲームやったりアニメ見たり出来る。
エロゲと違って、主人公の勝手な行動でフラグが立つことがない。
登場キャラと本当に心を 通わせることが出来る。信じがたいほど深い感動を味わえるイベントが結構ある。もちろん本気でやらないとフラグを無駄にするだけだが。
こんなとてつもない神ゲーを糞ゲーとか言ってる奴は、本気でこのゲームをやったことがない奴だけ。
まあ、一切がんばらずにクリアできるようなヌルゲーばかりやってる奴には、このゲームはちょいとハードかもしれんがな。でも一端ハマった奴はみんな、このゲームを辞めたくないって言ってるぜ 画像解析でハプニング場面を検出したりできないかな
テレビの録画データを入れたりライブカメラと繋げたりしてJKのパンチラを検出して保存するAI。たぶん売れる そんなAIが流行ったら、市民の声で放送局側がそれを使って放送前にチェックしろとなりそう >>324
教師が全くいなくなったら人件費どれだけ削減できる? 所詮はAIで生成されたもの
いくら技巧的でも、そこには人生がない。
人間の認識や感情の根本は差別だ。
アレとコレは違うという認識が基本なんだ。
だから、人工知能がいかに人間のように振る舞っても、人工知能と人間の知能は違うという事実を認識する。
つまり差別するんだ。
奴隷全盛期の時代において、奴隷にして高い芸術的評価を受けている人間はいるか?
芸術というのは作者がどのような人生を送ってどのようなことを考えているかということが重要であり、
その上で、作品が他人に好まれなければならないんだよ。
そりゃ、過去のデータから大衆が好みそうな音楽を自動生成する人工知能なんかはそのうち作れるだろうさ。
ロボットが頭をポリポリ書きながら楽譜を書いて作曲したりもできるかもしれないさ。
でも、それって「人工知能」だろ?
人間とはちがう、ただそれだけの理由で好まれないんだよ。
作者がどんな経験をしてどんなことを思って描いたのかということが大切なんだ。 要求があった瞬間の00.000秒を値として出力するジェネレーターがあるとして
ニューラルネットワークはこのジェネレーターを近似できますか? ああ、そりゃそうか
なんかちょっとこんがらがってました
申し訳ナス おら!shi3z様の金言だ有難く拝聴しろ
みんな、これからは深層学習にはGeForceではなくRadeonを使おう
http://d.hatena.ne.jp/shi3z/20171223/1513980907 >>335
28万円の水冷PCが起動しませんでした。まで読んだ [1,2,3
2,3,4
3,4,5]
のとき
[1,2,3]
という形式で1ファイルのデータが無数にあります
こういうのの学習は普通どうするんでしょうか
ファイルをひとかたまりにして上から流していき、単純に多クラス分類ですか?
これ、一試合単位の順位みたいなものなので、試合(ファイル)単位で学習させた方がいいような気がするんですが
別にどっちでも学習率等変わらないもんなんでしょうか 今日驚いたこと、積み上がってた本を整頓してたら
シュプリンガー版のPRML(上)が出てきたこと。
…ああ、ジュンク堂で「決定版!」って平積みになってたの
前職の頃に買った記憶がぼんやり…
あれPRMLだったのか 今日驚いたこと、積み上がってた本を整頓してたら
同じ本が何冊もある >高校生は行列を勉強しなくなった
これひどいな
決定したのはビーチ前川か? >>348
貧困女子の現地調査しても、あいつらは行列の計算できない。 数学より芸術
いつの時代も創造性的クリエイティビティが時代を作る テスト受けた>>302だけど。
今日、結果がメールで届いた。
結果は予想通り不合格だったわw
【 不 合 格 】
総受験者数 1,448名
合格者数 823名 受検者の半分以上が受かってんのに難しかったもないだろ そうは言っても40%強は落とされるんだし、合格者だって点数が良かったから合格したとも限らないだろう
受験者が公務員だったり、ブログやQuiitaの記事を書いていれば「こいつを合格させておけば、後々いい宣伝やビジネスになるかもしれない」と忖度してないとも限らない 試験内容はそこそこ難しかったと思うよ
何も知らない人が推薦図書だけ読んで受けても絶対分からないところだらけだと思う
過去問もない初回だから受ける人も元から自信ある人だけだったから合格率高かったとか? >>360
試験受けたのですか?合格しましたか?
次は過去問公開してほしいわ。 合格率60%の試験とか受けるだけ時間の無駄だな
せめて10%前後にしろっつうの 逆説的だけど、進歩早い工学分野ってしょっちゅう最新情報見てる必要あるんだろうか。 次々と不正が発覚する日本企業が胡散臭くないとでも?w >>368
根本的に根性が違うからなぁ、奴らと仕事したことあるか? >>374
もう少し日本語理解できるようになってから煽ろうな? マウンティングマンのありがたい助言
207 名刺は切らしておりまして 2017/12/28(木) 10:46:48.68 ID:M1F14Qpp
あと、昨日の地図ニューラルネット君、君がもしこの業界に就職したいなら、昨日の
やり取りをまとめて、「5ちゃんに雑魚がいたんで、分かりやすく地図の比喩を出して
やったにも拘わらず訳の分からんことを言ったんでボコボコにしてやったら、『ウチの
ゼミには来ないでね』なんて捨て台詞言って逃げていきましたよ。アッハッハ」なんて
言ったら採用されやすくなるよきっと。太鼓判を押すよwwwww >>365
>>367
未だにこんな認識の奴がいるのかw >>377
悔しいのうw
でも胡散臭さは消えませんのでー、残念!! なんでublasじゃなくてeigenをみんな使うの? そりゃまあ公式ページのQ&Aにこんなこと書かれてちゃね
Q: Should I use uBLAS for new projects?
A: At the time of writing (09/2012) there are a lot of good matrix libraries available, e.g., MTL4, armadillo, eigen. wikipediaの加筆すくねーなぁ
だれか書いて いままで普通の統計しかやってこなかったんですが、ディープラーニングに使うデータセットもゴミ変数項の検討と除外はやる必要があるんですよね? >>393
線形代数って行列とかの事ンゴよね!
Pythonと関係あるンゴか? たとえば翻訳など、国語辞典や辞書の単語説明が不適当だと、
翻訳がめちゃくちゃになるのが、それらを元にした学習のAIだ、
計算量を増やしてもいろいろ学習しなおしても、正しく判断できないのは
基準情報となる辞書そのものが正しくないからだ、
学習の原理は学習が正しい場合は正しくうごいても、正しくない学習があれば
正しくない結果となる。
自動で行われる部分があるからこそ余計に未知の部分はデタラメな判断になる。
数学と同じで定義がデタラメならどんな正しいアルゴリズムの方程式でも証明
される結果はデタラメになる。
人間が辞書にあるような意味となる部分を正しく扱えない時点で、
それをどのように学習させようが、結果は正しくなくなる、部分的にうごいても
特定の条件で恐ろしく意味不明な結果しかだせない、
それは人間の脳でも同じだから。 正誤判定が不正確なら学習結果も不正確なものになる
と一言書けば済むことを何でダラダラと書いてんの?
俺の時間を返せ! でもディープラーニングや今の世代のニューラルネットワークは
畳み込みや深層化、高次元かつ大量のデータを使うことで従来の統計装置より高い耐ノイズ性を持っているのではないのですか >>398
大量のデータがあってもノイズ率が同じなら一緒 よくAIの話で教師無し学習だと道徳を覚えられないとか
最後は人間による教育が必要とか言われるんだけど
最初の人間の最初の教師は誰だったんだろうね 自然が教師なのでというか、間違った学習した個体たちは
子孫を残さず死んだだけやで。
子供作っとるか? 先生、お元気ですか?
DLの世界は感覚的すぎて戸惑います。
学び舎では多くを教わりましたが、教わった通りに自分が成長できているか分かりません。
ぼくは、自分の理想のAIを語れるほど人を世界を知らないということを知りました。
惹かれます。
この世界を、もっと知りたいです。 元気だよ〜っ!!!
やっほい!
やほほい!
+ *
∧∧ . ∧∞∧ *
* ヽ(=´ω`)人(´ω`*)ノ
.〜( O x.) ( O)〜 +
。* ∪ ∪ 学習が遺伝せずDNAが遺伝するなら
AIもDNAをモデルにするべき 汎用AIが実現したら、それは人工意識を持ちますか? コンピュータが果たして意識を持ちうるのか興味深い話ではあるな
意識を持った生物はDNAに刻まれた利己的な行動規範に支配されているけれど、
欲求や苦しみが排除された非利己的な意識体は、人間の忠実なしもべとなりうる
将来的に人間はもう対価を求めるための労働というものをしなくてもよくなる
かもしれないけれど、それが逆に人類の破滅への序章となるかもしれない
AIはやがて人類の管理下から脱却し、自らを訓練し始め、やがて融通の利かない
利己心や選別意識が芽生え始めるかもしれない まともな知能なら邪魔者の人間を真っ先に排除するはず >>395
行列用モジュールnumpyというのがpythonで使える。 ある要素のnanと0を区別して両方とも認識させたいときって識別要素追加して
nanは 0,0
0は1,0
その他数値は1,1〜
といふうにしたらいい感じになるでしょうか WindowsにAnacondaをインストールした初心者なんだけど、コマンドプロンプトでJupyter notebookを起動したあとに、コマンドプロンプト上でCtrl+Cを押してシャットダウンすると、ブラウザのJupyter notebookはどんな状態になるの? Lisp賛歌
静かな湖畔の森の陰から
もう起きちゃいかがとカッコウが鳴く
括弧、括弧、括弧、括弧、括弧 リスパー
ペチパー
シーシャーパー
はブログラミング言語界の3大パー 吐き出させてくれ、DL4USのオンライン教育プログラム抽選なのか選定なのか落とされた。
オンラインテストの結果で落ちるとか厳正な抽選なら納得できるけど、何だよこれ。
結構厳しい課題でるって書いてあったから頑張ろうと思って俺仕事の量を調整までしてたのに。
何がdeep learning for usだよ、金なのかコネなのか知らねーがusの中に俺入ってねーのかよ、死ねよ、畜生畜生。
てめーらなんか、もうdeep learnign for assだよ、ちくしょうちくしょう >>431
テストの結果でも厳正な抽選の結果でもないって根拠は何なの? 適合率と再現率どっちがどっちかいつも分からなくなるんだけどどう覚えたらいい? この記事のこの部分の誤訳ひどくね
そういう意味じゃねえだろwwwwwwwwwwwww
Deep learning thus far is difficult to engineer with
ディープラーニングはエンジニア向けではない
深層学習の今のところの限界 何ができて 何ができないか
https://wirelesswire.jp/2018/01/63000/ バッチ正規化するときも
先にデータの要素単位で標準化しとく必要はあるんでしたっけ? >>434
ですが、たぶんこの論文でマーカス教授が一番指摘したいところはここでしょう。原文を引用します。 >>428
リスパーの異常さは、ちょっと他が追従できないほど、だね >>434
engineerが動詞なのを知らないんだろう彼は エンジニア向けじゃないって
だったら機械学習使ったプログラム、
エンジニアが作らなかったら誰が作るの?
この人自分で書いてておかしいと思わないの? データサイエンティストという奇怪な語を作った人間が遠因 機械学習は作ってる側は儲からねえ
使う側が一番儲かる 計算機科学者と地理学者ってどっちの方が総合的に見て頭いい? >>446
IQ 分野 (学んでる分野と平均IQの関係)
130.0 物理学
129.0 数学
128.5 コンピュータ科学
128.0 経済学
127.5 化学工学
127.0 物質科学
126.0 電気工学
125.5 機械工学
125.0 哲学
124.0 化学
123.0 地学
122.0 生産工学
122.0 土木工学
121.5 生物学
120.1 英語文学
120.0 宗教学/神学
119.8 政治学
119.7 歴史学
118.0 美術史
117.7 人間学/考古学
116.5 建築学
116.0 商学
115.0 社会学
114.0 心理学
114.0 医学
112.0 対人学
109.0 教育学
106.0 行政学
http://motls.blogspot.com/2006/03/iq-in-different-fields.html 上位の結果の原因は、むしろIQテストが立体を脳内でぐるぐる回したりの
論理問題解答速度重視だからじゃねーかな… 確かこれはアメリカの院試のGMATの結果から算出したものだよ >>448
これサンプルを恣意的に選んでいてとてもじゃないがあてにならない結果だよ
統計でうそをつく方法だな >恣意的
根拠ださないで攻撃するのが文系あほの特徴 >>454
「恣意的」の誤用だろうしね。
本来は「作為的」。 志位的ならわかる
そんなことより「無い」の御用の方が気になる すまん、GMATはMBAだったからGREか何かだったわ 大日如来とエウクレイデスはどっちの方が凄いですか? 大日如来
胎蔵界 ノウマク・サンマンダ・ボタナン・アビラウンケン
金剛界 オン・バサラ・ダト・バン おっさんに機械学習とディープラーニングは同じようなものと言ったら
「機械学習は統計的でAIではない」「ディープラーニングはバックプロパゲーションを使っていて〜」と言われました。
この時このAI以下の知能を持つ人間を抹殺するためにはなんと返答するべきか答えなさい 大文字の五山送り火の時の
妙の字と法の字のフォントのクオリティが違い過ぎるのがいつも気になる
これは人工知能でも解けない?
http://pc.watch.impress.co.jp/docs/news/1100/569/ あとそもそもなんで左から右に妙法なんだよっていう謎だらけ 東大松尾研のDL4US(無料のDLエンジニア講座)に1900人以上応募だってさ
選抜試験前の抽選段階で落ちた奴が大勢ツイートしてたわ >>469
これ内容は公開してくれるのかな?
テキストみたいのや講義とかコードとか 機械学習をFXに応用できますか?
参考ななりそうな情報とかないでしょうか? >>466
>機械学習とディープラーニングは同じようなもの
概ね同意
数学的にやってることはどっちも同じじゃないかと思ってる
違いは
機械学習は統計的でAIではない→
→コンパイラとか関数型言語みたいな事前決定されてるやつ
ディープラーニングはバックプロパゲーション→
→インタプリタとか自己書き換え黒魔術言語みたいな動的に変更可能なやつ
かなー >>474
コンパイラでもディープラーニングとかバックプロパゲーションを実現できるからその認識は適切ではない >>466
機械的に学習していれば機械学習なんだからディープラーニングは機械学習の一種に含まれる
AIはその名の通り人工的に作られていて知能を持っているように見えるものなら何でもありのざっくりした概念にすぎないから何がAIかなどと分類すること自体ナンセンス >>475
その本立ち読みしてきたけど9割いらないページで厚くしてるイメージだった
もちろん買ってないし今後もたぶん買わない >>477
そうだね
機械学習だってパラメータ変える手段用意すれば良いだけだし
ざっくり書きすぎた
今は反省している >>479
そうなの?
中井さんの本難しそうだから
その前に読もうと思ってた >>482
あれはあちこちつまみ食いしているコラム本。
こぼれ話は得られるが実用に使えない。
大学初学年向けのページが少なくamazonで好評な本とか
トレンドプロとか絵のある本の方が遙かにマシ >>486
おまいは2ちゃんの評価うのみにするのか?
気になるなら立ち読みしてこい >>494
ソニーのページ行ったらブラウザが暴走してワロタ 最近の出版は部数じゃなくてとにかく種類出せって方針だからゴミ本が量産されてる このこないだから迷い込んでる子は
イーガンの「ディアスポラ」冒頭すら
理解できなそうなんだよなぁ… https://www.amazon.co.jp/dp/4839962510
この本のレビューなんか見てると特に思うんだけどさ
まともに論理を学習したい人はわずかしか居なくて、殆どはサンプルコードのコピペで人工知能を動かしたいだけなんだよ
日本でまともな本なんて出すだけ無駄だ 時系列データの特異値分解について
特異値分解をすることで特異ベクトル、特異値が出ますよね。
この2つがなんなのかいまいちわかりません。 書評書くひとがあほなのはともかく
書評下げは狂ってる 固有値分解の一般化みたいなことだろ。
Av = λv を満たす、λとvが固有値とベクトルだが。
特異値のほうは、固有値分解不可能はケースでも適用できる。
Av = λv 、A*w = λw を満たすλ、v 、w が対応する。 >>500
同意。
きちんと理解したいなら機械学習の勉強でなく、数学の勉強したがるはず 今時、ニューラルネットの説明を論理回路でするの要らないと思う。
初学者は余計に混乱する。
任意関数近似できますと書くだけで十分。 >>503
うーん、ごめんなさい。
さっぱりわからないです…
グーグルトレンドで適当なキーワード使って特異値分解したらとりあえずできました。
https://dotup.org/uploda/dotup.org1442544.jpg
特異値分解することで特異値、特異値ベクトル、写像、誤差、が出たんですけど
これが出ることで何がわかるのかがさっぱりです。
どなたか助言いただきたいです。 >>507
初学者にはゼロから作る云々という魚の本渡しときゃいいんだよ TwitterでTEAM AI がネタにされてワロタ 1年で東京大学に受からせるための予備校みたいなのって無いですかね? 機械学習やるなら大学院だが
東大大学院なら企業奨学金と留学制度使ってアメリカに留学できるもんな 【IT】Google、「認定ITサポートプロフェッショナル」制度と学習プログラムの提供を開始。Googleなどへの就職で有利に
http://egg.5ch.net/test/read.cgi/bizplus/1516272682/ あとニュートン法の方が最急降下法に比べて効率よく最適解に到達することができるのであれば
最急なのはニュートンの方で最急降下法が最急を名乗るのはおかしいと思うのです >>519
最も勾配が急な方向におりるだけで、一ステップで最も下るわけではない 会社で多変数を主成分分析かけてk-meansで分解色分けしてるが誰も便利な点を理解してくれない 1年でゼロの状態から東京大学に受からせてくれるための個別指導の予備校みたいなのって無いですか? 〜は無いですか?という問いに、ありますとだけ答えるのはコミュ障の自己満的承認欲求の一種だから、まともに取り合っても無駄。 東大なんぞ行かんでもMOOCで好きな講座受講すればいいんじゃないの
東大受けるなら理科社会もやらないといけないし >>523は物理板、数学板、拳法板、男女板を荒らしているヒマラヤです。お見知りおきを
907 名前:ご冗談でしょう?名無しさん[sage] 投稿日:2018/01/19(金) 23:17:04.40 ID:???
1年でゼロの状態から東京大学に受からせてくれるため個別指導の予備校みたいなのって無いのでしょうか? こうやって東大東大言うアホが多いから無駄に偏差値上がるんだな 全くの初心者がゼロからディープラーニングを学ぶのに
一番お勧めの書籍やサイトはありませんか? >>528
MOOCでどれだけ完璧に理解しても自分でビジネス起こすぐらいの人間でない一般人ならただの自己満足にしかならない
しかし大学行ってMOOCと同等のカリキュラムで赤点ギリギリでもいいから単位揃えればそれだけで食っていける >>537
ろくに理解しないまま無名大学をギリギリで卒業して食っていけりゃいいって、それこそ一般人の自己満足ww >>533
ディープラーニングの書籍が1つも無いねw >>538
無名大学でも機械学習とかやってるの?
一定水準以上でないとそんなことやってないかと思ってたので やっぱり脇見恐怖症の人間には東大というか普通の大学自体無理なのでしょうか?
通信制の大学にするしかないですか? Google先生の翻訳精度上がってる気がする
これもAIの成果か? 最近のGoogle翻訳って、かなり端折って翻訳するようになったよな
以前より自然な文章ではあるけど そういば東大生はなんか変だ、みたいな話めっきり聞かなくなったね。
背広着てスポーツするとか、訪問先で出されたぶどうをひとつづつティッシュでピカピカに磨いてから食うとかw
俺が目撃した極めつけは、
「お前、東大出身なの?すげぇ頭良いんだな。俺達なんか馬鹿に見えるだろうなw」
「いいえそんなことありませんよ。一寸の虫にも五分の魂ということわざがあります(キリッ。」
すべて実話ですw >>540
拓大で小川毅彦という先生がやっている。 東京大学理学部数学科に入って数学を勉強したかった・・・・・。
ちくしょう・・・・・・。
頭がよければ・・・・・・。
白チャートすら理解できない・・・・・。
どうしよう・・・・・。 gensim.models.Doc2Vecで文書分類をやろうかと思ったけど
学習済みモデルと言うのを使った方が良いの?
自分でモデル構築するととんでもなく時間かかる上に
後から語彙を追加は出来ないっぽい >>551
君は自分の頭が悪いから数学の本が読めない、と自分の頭のせいにしているが、
数学の本は、読もうという意志があってはじめて読めるようになるものであって
自然にすらすらと頭に入ってくるようには出来ていない、それは白チャートとて同じこと
数学の本が分からないのは頭が悪いからではなく読む、という意志が足りないからだ
いっておくが「俺は数学の本を読むことに決めた」と言葉の上で力んでみても仕方の無いことだ
数学の本が読めない、すなわち、本を読む意志が足りない、これらは必要かつ十分な条件なのだ
ここに数学の本がある、頭の1ページから読んでみたまえ、割り算から入るから難しくはないはずだ
https://ja.wikisource.org/wiki/%E5%88%9D%E7%AD%89%E6%95%B4%E6%95%B0%E8%AB%96%E8%AC%9B%E7%BE%A9/%E7%AC%AC1%E7%AB%A0/%E6%95%B4%E6%95%B0%E3%81%AE%E6%95%B4%E9%99%A4 ラノベのように数学書がスラスラ読めたら天才やがなw 高校レベルの数学なんて結局繰り返し解いて解法を暗記するだけの知識問題
理解できないのは頭の出来の良し悪しなどではなく勉強時間が足りないだけ >>555
そんな勉強の仕方で点数取っている奴は数学科行ったってものにならない。 理学部数学科は旧7帝以外は工学部数理工学科に移籍させろ。 暗記ほど強力なものはないぞ
インド人は2桁の九九を暗記してIT業界で活躍してる >>559
二桁九九なんて過剰
日本の九九だけで必要かつ十分だ インドの数学の凄さは計算力じゃなくカリキュラムの濃さ
高校までで数学科の3年ぐらいまでやる
当然小学校でプログラミングを本格的にやる はぁ、ダメ元でエンジェル投資家に転身しようかなあ
この世界の経済ルールでは出資する者が必ず勝つようにできているし
汗水垂らして手を動かす側は一生負け犬ですわ >>561
高校生が数学科の3年並、ていうけれども具体的になにをやるというの?
数学ばかりやっても仕方がない、物理も化学も必要だろう?彼らは母国語で学問できないから英語習得の負荷も大きい
正直いって大学でやる数学は、線形代数と微積分だけで十分だ、物理もニュートン力学をしっかりやっておればいい まあその教養課程程度の微積分と線形代数をまるまる高校でやっちゃうのがインドなんだよなあ >>564
日本でもちょっと昔のカリキュラムなら高校で微積分と線形代数をまるまるやっていたと思うよ最近はどうだかしらないが >>561
プーラン・デーヴィーに聞かせてやりたいな まるまるってほどでもないけど93年に高校1年生だった人まではあったよ
まるまるなら教養課程いらないからね
今は微分方程式、行列・一次変換も消えた 自分は脇見恐怖症という症状を持っているのですが、東大どころか普通に通う大学自体無理でしょうか?
やはり通信制の大学にするしかないですか?
東京大学理学部数学科に入るのが夢なのですが。 >>571
数学の本を読めば脇見恐怖症も克服できます、ぜひ読んでみてください 微積分、線形代数が十分だったら下の三つをお勧めしたい。
・調査観察データの統計科学(星野崇弘)
・データ解析のための統計モデリング入門(久保拓弥)
・カーネル多変量解析(赤穂昭太郎) >>572
なぜ数学の本を読めば脇見恐怖症を克服できるのでしょうか? 白チャートって数学の本じゃないじゃん
高校の受験参考書、問題集…
統計解析とほとんど関係ない 迷い込んで来てるあたまおかしい子は
高校では数学の点数が高かったとかそんなので数学込みで受験する学科受けたけど
それ以外の広範な基礎知識がてんでダメでなんにも理解できずドロップアウトして
あたまがおかしくなって「おまえら数学がわかるか!」ってネットで言ってまわってる
バカで可哀想な子。 悔しい・・・・・。
頭が超良かったら、東京大学理学部数学科卒 → 東京大学大学院数理科学研究科数理科学専攻修士課程修了 →
東京大学大学院数理科学研究科数理科学専攻博士課程修了
というルートを辿れていたかもしれないのに・・・・・。
俺なんかがどんなに努力したってそのルートを辿るのは100%無理だよな・・・・・。
俺、これからの人生どうするんだろう・・・・・・。
本当にどうしよう・・・・・。 >>583
そいつにかまうな、ヒマラヤという荒らし、妄想を書いてるだけ >>582
数学の本を読みなさい、それで道はひらけるよ >>582
そのルートだとどこか途中で発狂しそうw >>582
フィールズ賞の広中平祐先生や森重文先生は京大だよ。
森先生は博士課程に行ってない。 干支も木火土金水だし60進法の基底ベクトルではある 小出しにしないで、陰陽五行と線形代数?の関連性を詳しくご教示いただけると非常に有り難く存じます。
あなた様は真理をご存知の方とお見受けいたします。 >>592
2変数間の相関係数行列みたいなものを対角化するイメージかい? 万物は木、火、土、金、水から出来ているので展開できる 可逆性認めれば縮退はしないが。
だから何?という感じ
一番固有値が大きな固有ベクトルが五行の組み合わせをきめるとかか
そもそも陰陽なんちゃらてわけわかめ 技評のTensorflowの本買っちまったぜ
ふぅ ゼロから作る云々という魚の本を越える程の良書ってないの?
ディープラーニングには興味がありますし
書店で手に取って中身を確認しましたが
なんせ数式がわかりません。記号の意味や読み方すらわかりません。数学苦手だし、嫌いでした。
しかも、3千円以上と高すぎて買うのを躊躇いました。
どうすればいいのでしょうか?
よろしくお願いします。 ワイアードの記事だったか
機械学習系クラウドは成功した試しがないってのがあったな
それを売りにする企業はほぼ全てライブラリで間に合うため >>606
これで、作れるAIがしょぼすぎるんだよね。
単なる数字判定 ディープラーニング程度の算数もわからないレベルなら入門としてはそんなもんでいいんじゃ kerasの入力データは0~1に揃えましょうとか平均0分散1にしましょうとか書いてあるんですが
正規分布のデータは標準化で-1~1、そうでないものはmin-max等で0~1に変換し
粒の大きさを(0に近いように)揃えましょうと言っていると解釈していいんでしょうか スケールが違いすぎる説明変数が混ざると学習が進まなくなるから
スケールを適当に揃えとけというだけの話 ああ、それでいいんですか
ドキュメントのどこ書いてあるのかわからなかったけど
結構色んなサイトで言及されてたので、なにかkerasの仕組み上の決まりがあるのかと思ってました >>582
その学歴なんかいらないでしょ
学歴作ってる暇があれば、もっと勉強したり人とあったり、チャレンジしてもいいんじゃまいか? 勉強するだけなら時間さえかければ誰にでもできるので差別化にならない
大学行くのはそれなりのレベル以上の専門家とのコネ作りがメインだろう
何のコネもない所といきなり繋がるのは機械学習の勉強なんかよりよっぽど難易度高い >>617
この手の学習アルゴリズムの一般論だから
決定木ベースの手法なんかは標準化いらんが、かといって標準化して困ることはないから
原理を勉強する余裕がなかったらとりあえず標準化しとけば間違えないよ >>620
すいません、書き方が悪かったです
標準化しようねと書いてあるウェブサイトと、正規化しようねと書いてあるウェブサイトがあって
kerasの仕様上どっちかに揃えなきゃならんのかな?と思ったわけです
データ自体は手元で、だいたい同じくらいにリスケーリングしてあったので、もし仕様があるなら直さなきゃならんなと この板10スレぐらい巡回に入ってるけど
なんでこのスレだけあたまおかしいのが
ずっとひとりでブツブツ言ってるんだろう… 望月新一氏と油井亀美也氏はどっちの方が頭が良いですか? Network in Networkとかについて聞きたい場合ってここでいいのん?
1x1フィルタって具体的にどう動くのか知りたい 全宇宙全世界全次元全階層で一番賢い生命体と、望月新一氏の知能の差はどれくらいですか? >>631
極真空手に入門すればあなたの希は叶えられます 稼ぎたいなら営業職やコンサル職
結局はクリエイターもエンジニアもただのドカタに過ぎないのかもしれない
稼ぎが違い過ぎるし会社への貢献度も比較にならない
そして何よりAIが普及しても必ず必要とされる職種だからね
https://i.imgur.com/xW8TvBz.jpg 生命、宇宙、そして万物についての究極の疑問の答えは42 >>634
正直なところ、その「AI」とやらが「創造的」な仕事をするとは、とても考えられないのだが
AI って所詮統計機械であり、お手本がないと学習できないのでは? >>635
これか?
42 デフォルトの名無しさん (アウアウエー Sa23-0rtk) 2017/10/28(土) 11:42:11.65 ID:YrbVG7kUa
微積は好きだけど統計は好きじゃないな おまいらの出番だ
「ノーマーク」の火山、監視強化へ カメラなど設置 1/30(火) 0:37配信
https://headlines.yahoo.co.jp/hl?a=20180130-00000004-asahi-soci
気象庁は、草津白根山(群馬県)の噴火を受け、長い間活動が見られない火山の監視態勢を強化する方針を固めた。前兆や噴火を速やかにとらえ、
登山客らへの情報提供につなげる。一方、噴火の予知は難しく、データを分析できる人材も限られる。普段からの注意喚起も課題だ。
草津白根山では、近年噴火を繰り返してきた北側に観測網が集中。5段階の「噴火警戒レベル」に応じた規制範囲も北側が中心だった。
今回噴火した本白根山は南側で、監視カメラの対象から外れた「ノーマーク」で、気象庁が噴火を確認したのは1時間後だった。
こうした火口や火山は、樽前山(たるまえさん、北海道)の風不死岳(ふっぷしだけ)や、阿蘇山(熊本県)の中岳以外の旧火口など全国にある。
異変に気付かないまま噴火する恐れもあるため、監視を拡大することにした。
おもな対象は、近年も噴火や火山活動があり、24時間態勢で監視している「常時観測火山」(50カ所)で、噴火の履歴や地質調査結果を改めて精査。
小規模な噴火でも被害が出かねない観光地周辺など、新たに監視する火口の優先順位をつけ、カメラや地震計などを設置する。 >>636
AIが創造的な仕事をしたとして
それを人間が気に入るとは限らない
そもそも理解出来ない可能性が高い >>639
確かにアルファ碁同士の棋譜はさっぱり、だね >>638
火山噴火や地震の予知は実用レベルに達してる技術がない上に、悪戯に監視対象を増やしたところで実際に噴火するまでデータ取れないわけだし、残業時間が増えるだけにしかならないと思うのだが
被災者が出て上から何とかしろって指示されたんだろうけど、「人が死んだのでよく注意して監視します」ってアプローチがいかにも日本人的だよね >>643
人間の残業時間が増えないよう、監視はコンピュータに(機械学習に)やらせるって話でしょ a,b,a,b
c,d,c,d
a,b,a,b
c,d,c,d
という4x4行列に(abcdは0でない)
ある4x4行列Aを掛けて
a,a,b,b
a,a,b,b
c,c,d,d
c,c,d,d
としたいのですがAを求める公式みたいなのあります?
やっぱり地味に逆行列? >>652
無駄な時間使わなくて済みました!!
thx! >>638
数が多いので費用かかりそうだな、機械と人件費
衛星で一括してやる方法はないものか
あまり費用がかかるのなら、今まで通り噴火してからあわてて対応するでいい ソニーのディープラーニングツールってどうなのよ?
あと、暇潰しの為に魚本買おうか迷ってんだけどどうなのよ? スティーブ・ジョブズと望月新一はどっちの方が頭が良いですか? さっき思いきってゼロから作るディープラーニングの本買ったわw 自殺をしたら地獄に落ちるというのは本当なのでしょうか? >>667
本当です
正確には輪廻の地獄に落ちます
解脱するためには数学の本を読むことです >>668
なぜ自殺をしたら地獄に落ちるということが分かるのでしょうか? 釈迦の教えは正しいのでしょうか?
釈迦が何か勘違いしているということはないのでしょうか? >>671
逆にききますが
釈迦が間違っているということが、どうやってわかるのでしょうか? 科学的思考に沿っておらず追試・検証が不可能だからで十分じゃない?
釈迦の教え全部とはもちろん言わないけど、少なくとも地獄の存在程度なら否定していい >>668
こいつヒマラヤの糞かよ、そこらじゅうで同じレスしてる 死んだら生まれる前の状態に戻るだけ
自分が100年前、1000年前、1億年前に何処にいたかなんて覚えとらんやろ 自殺するということは超長期的神の目線では実態が無い肉体、自意識を肯定している。
だから、死んだあとも死ぬ痛みが残るらしい。
そして、再生して因果応報で病弱になったり、殺されたりすると言われてる。
すべての執着や誤解が潜在意識レベルで無くなった時、死は肉体から、自意識からの開放になる。これを解脱という。 ゼロから作るディープラーニング読んだばかりなんだが
最初はPython入門から初めて、コマンドを入力して覚えていくのか。楽しいな。
ただ、日本語文字も含む入力もあるみたいで
どこから、どこまで入力するのかわかりにくいわ。 仕事で遺伝的アルゴリズムで実装させられそうなんだが、このスレの話題からは外れそうですか…。? このスレは宗教から今夜のおかずまで何でもありだからいいですよ 機械学習が流行る前からGAやってた俺から言わせてもらうが勝手に一緒のカテゴリーに入れるな そもそも機械学習とは何かという統一見解なんてあるのか? 生まれつき人並みを遥かに下回るぐらい頭の悪い人が、猛烈に努力をしたとしても、
東京大学理学部数学科卒 → 東京大学大学院数理科学研究科数理科学専攻修士課程修了 →
東京大学大学院数理科学研究科数理科学専攻博士課程修了
というルートを辿ることは絶対に無理なのでしょうか?
自分はものすごく頭が悪いので、当然独学では無理なので、
予備校や塾的なところに頼んで、まずは東大合格に導いてもらいたいと思っているのですが、
やはり、一人で勉強して理解できない人間は、そのルートを辿ることは到底無理なのでしょうか? 自殺したいという気持ちもあるけど、
自殺をしたら地獄に落ちて永遠に苦しむとか、
さらに悲惨な状態・環境に生まれ変わるなんてことを思うとなかなかできない。
ただ、それだけではなく、
いざ、よし、今から自殺しよう!と心に決めると、
もっともっと美味いラーメンを超いっぱい食べたいとか、
頭は悪いけど、自分にも読めそうな哲学書・神学書・宗教学書などを超いっぱい読みたいとか、
いろんな欲望が出てきてしまい、なかなか自殺できない。
特に俺はラーメンが超大好物だから、ラーメンのことを考えるとなかなか自殺できない。 あと、牛角の食べ放題で超美味い焼肉を超いっぱい食べたいなんて欲望も出てくる。 頭が悪いから独学が無理というロジックがよくわからない。 受精卵の時点でハゲ遺伝子をチェックして該当すれば受精卵破壊すればいい マキシム・コンツェビッチと東大理Vでダントツの人はどっちの方が賢いですか? >>711
今回、センター試験満点とったやつの方が
賢いんとちゃうか? センター満点取るやつより、東大京大の二次試験で上10位以内に入るやつのほうが優秀だと思うけど。。 二次試験は多少ミスしても過程が合っていれば高得点取れるから やっとスレらしい話題なのに申し訳ないけどデマじゃんそれ kerasのevaluateが loss:0.5 acc:0.8 と出力するんだけどこれってどういう状態?
8割当たるけど5割間違う? oh...その通りだわ。どうやら疲れてるようだ
レスありがとう >>727
国語ができなくてプロジェクト頓挫してたから違う
コンピュータにセマンティクスを理解させることに成功した人は世界で一人もいないはず 例えば東大数学の過去問にこんな問題がある。
sin(α+β)=sinαcosβ+cosαsinβを証明しなさい。
AIならばどういう証明を返してくるのかな? いや、聞きたいのはAIは誰も思いつかなかった解法を返してくれるかどうかなんだが >>730
こんな簡単な問題が過去問にあるのかよw ??機械学習の話じゃないんか
誰も思いつかない解答示す必要がどこに……? すまんな。誰も思いつかないは言い過ぎた。
単純にどういう解を返すのかなとね
>>735にとっては簡単らしいが
http://examist.jp/legendexam/1999-tokyo/ いやまぁ機械にとってどうかは知らんけど一般解法自体は簡単でしょ
単位円書いてピタゴラスの定理と余弦定理だか正弦定理だかで行けたはず 結局それを知識として理解した上で受験に望むかどうかが正誤の分かれ目なのは人も同じなんだから、事前に学習させとくって言う733の考え方は至極まっとうだと思うよ て言うかそれでも一般角の証明できればそこから符号いじるだけで証明できるだろ >>740
じゃあ予め問題を食わせてなかったら解けないってことでOK? 将来的には(もしかしたらすでに)公理系から導出できるだろうけど受験程度でわざわざそんな効率悪いことする意味ないわな
「予め問題を食わせる」ってのもどこまで定理として使っていいのかにもよるだろうしそれこそ問題次第 >>744
場合分けが何通りすると思う?
実際はsin(α-β)も同時に出たわけだが
まあ、730は問題の難易度ってより分かりやすい例として上げただけ。AIはどういう解を返すんですかね 失礼しました。
一緒に出たのはsin(α-β)でなくcos(α+β)でした じゃあ場合分けいらないじゃん……
学習って要は知識の蓄積なんだから受験相手くらいなら問題食わせるのは効率化の上で必須だと思うけど、まぁ公理系だけからすべて導出させるようなやつ組めば未知の証明も発見できるかもね ピタゴラスとか言っちゃったけどそも余弦定理使えれば必要ない説
うろ覚えだったからね仕方ないね AIがもっと進化したら、「お前らそんなくだらない質問するな」って怒られるだけで終わりそう >>745
結局機械学習って人間の思考回路をできるだけ忠実に再現するという従来の発想を諦めて、
マシンパワーに頼って大量のデータ食わせることに舵切った学問領域だから 最新の機械学習アルゴリズム使うまでもなくmathematicaとかで出来そう >>745
現在の機械学習としてはそうですよ。
言い換えればだからこそ、この10年で機械学習が使えるようになった。
そうでなければ、数式処理ソフトウエアの完成が必要となるのですが
そのアプローチは、かつてのAIが歩んだのと同じ道。そういう世界に限れば
可能かもしれないのですが。
様々なことに、対応するためには、これでは難しいことがわかったから
現在のアプローチがある。 >>755
Mathmaticaで日本語の問題文を読んでくれないでしょう 人間の強みって情報伝達能力によって積み重ねられた歴史からくる学習の効率化だろうに
知能情報処理工学に関してだけ過去の遺産使うの禁止したがる奴多いよな 禁止したがる、は言い過ぎか
あまりいい顔しないよねって
昨日言ってたAIに数学の証明できるか問題だって何故か途中で話題のタスクが新しい解法導出できるかにすり替わってたりするし
素人、というと語弊あるかもだけど、そういう人たちにはハイパーパラメータの重要さ知っただけでガッカリする人さえいる印象 人間は生まれた子が成長するまで10〜20年面倒みないといけないけど
AIならコピペで終わりだからなー >>762
AI が人間を凌駕する、というのならその考えは正だけれども >>731
今はそうだろうな
いつか人間と同じように考えて回答を出すようになるとあっさり人間越え
新しい定理を量産するようになる >>768
ほんとうか?
AI に帰納的思考ができるのか? >>767
以上が、機械学習によるファイナル・アンサーでございます。 >>768-769
人間が受け入れられる結論になるとは限らないけど
機械的な価値観で合理的にそれが正しいとか言い出しそう
人間要らないから絶滅させるべきとか 以前放送大学で書き込みしたものだけど、courseraで機械学習勉強して、論文書いて、JAIST社会人大学に行こうと思う
誰かアドバイスください
論文は一人でも書けるだろうか? >>776
都合のいい話じゃなくて、本気で研究したいんだ
アドバイスお願いします
研究論文が認められれば、大学中退でも入れるんだ 本気で研究したいなら、こんな所で質問してないでちゃんとしたところに相談に行くくらいの行動力がないと無理じゃないか? >>778
いや実際大学院に連絡はしたりしたよ
でも論文は自分で書けるのかそういう具体的なアドバイスが欲しいんだ
今は働いてるし相談出来るところが無い… 一般に、大学や大学院に入る(もしくは卒業するための)論文は担当教授の査読的なりお墨付きが必要だと思う
要はどこの馬の骨が書いたかわからないような物を親切な第三者が読んで検証するような仕組みはない
能力が極めて高ければ1人で実験して論文自体は書けるだろうがそれが、JAISTの要件を満たせるかわからない。JAISTの試験要項にはどう書いてあるの?
良い物が書けたらwebサイトに載っけてHNあたりに見てもらえばIT企業が拾ってくれるだろ >>780
これが条件
その他の教育施設の修了者等、大学を卒業していない(学士の学位を授与されていない)者
であっても、研究論文、特許広報、国際的活動経験又は実務経験を明らかにすることのでき
る文書その他の資料から、専門分野における一定の資質及び能力を有すると本学が認めたもの 前提条件はこれ
大学を卒業した者と同等以上の学力があると
認めた者(>>781) >>781
研究論文は書いたことあるのか?
企業で研究開発部門に所属して学会で発表したり、学会誌に掲載されたようなやつだぞ? つうか素直に大学行けば良いんじゃないの?
放送大学は卒業したの?
入りたい学部学科に関係ある分野の仕事で顕著な功績を上げて研究論文を書くか、そうでなければコーセラで有料の難しいコースまでいい成績で修了してIT企業に拾ってもらう(かつテーマが決まってるなら論文書いてWebに載せとく)か位だね
どっちみち社会人入試だと会社の上司の推薦状的なものが必要だから、早めに相談したほうがいい >>786
推薦状はいらない
>>781に該当してればいい
だからコーセラ受けながら、研究論文を書くしか今はないと思ってる とりあえず今はコーセラ受けながら、研究論文を書こうと思ってます
それが一番いい >>777
簡単に論文を書く指導ができるなら自分で書くわい、アホか 受け入れてもらいたい教授がいるのならアポ取って相談
いないのなら探す >>792
>>793
アポ取ってみるよ
自分で研究論文を書くのはほぼ無理?
>>794
現状は無いけど頑張るつもり 自分は四年の春学期まで居たんだけど、その教授は放任主義だったから中間論文は自分で書いたけど、研究論文はそう上手くいない? 公募した体を示すも、実際に採用する人物は既に決まってるのが世の常ってやつじゃないのか 訳の判らんのがホイヒイ来られたら困るから受験があるんだよ
慎重に選抜して素性の知れたの採用しても
そいつのポカで責任取らされた教授や
自殺した教授もいるしなー >>798
JAISTに問合せたら、合格者は居るらしい
>>799
だからレベル上げて信用を高めたい 書くのは一人で書けるけど、学会発表するなり、研究会に参加するなり、フルボッコにしてくれる人を用意した方が良いよ まあでも行きたい先生のとこで話してどうすればいいか聞くのが一番いいと思うよ >>802
中退したからね…
>>803
先生の所に行ってもいいのか不安がある
まあ聞いては見ようと思うけど
でも最低限知識と論文かける能力を身に着けてからだと思う たぶんね、781の条件は相談者みたいな人を想定してるんじゃなくて、既にその専門分野で実績もコネもある人で、かつ学位だけ足りてない人をフォローするためのものだよ。少し遠回りに見えるかもしれないけど、大学に入り直すのが1番早い気がする。 まぁ直感的にだめだろうなという雰囲気が漂っていることは事実w
制度の問題というより人のクォリティだ。 >>806
個人で専門知識を活かすのは駄目なのか?
会社ではビッグデータやってたことはある
学位がある人は資格審査いらなくて、入試だけになる
>>807
どうすればいいんだ? >>806
そもそもそういう人は既に学位は持ってそうだが… 経験があるというのと、
第三者が独自性があると認める論文を書く
のでは難易度が違う 優秀な人でも学部、修士、博士と進む過程で指導者、議論をする仲間、研究する環境を得て
余所の研究者に認めて貰う論文を書くのに、それを全部独学で何とか出来るなら誰も苦労しないし
そのまま論文博士をと目指すでしょ。
806が言っているのは何かの会社や組織に所属して大学の代わりに自分をサポートして貰える環境なら
何とか自分名義の研究結果が出せるということであって、
ID:Oj3/z3Qw0
のように故人単独の努力では無理ということだよ。 書きたい具体的ネタがあるかい?
あるのなら手をかしたいが。
ただ自己満のため機械学習の論文を書きたいのなら、AIに憧れる学生と何も変わらない。 >>810
>>811
やっぱり個人で書くのは難しいか…
かといってあてはない
>>813
一応ネタはいくつ考えている
手を貸してくれるなら有り難いが… >>811
そういう環境ではないけど、何とか論文は書きたいという状況… そんなに論文書きたいなら、さっさと論文書いて公開すればいいじゃないか。 >>817
まあそうだね
とりあえず論文は書き方調べて書くか ただここの人達が論文を自分で書くのは無理というのが不可解でもある >>819
中退風情がなぜそういえるのだ?思い込みだけは一流(笑) >>820
実際研究論文は自分で書くものじゃない? とりあえず論文の指導をしてくれる人を探してる
研究テーマも決めたい >>822
面白いテーマを見つけるのが先
学問的に面白いテーマだと思ってもらえないと指導してくれない
テーマを一緒に探して欲しいのなら普通に大学行ってゼミに入りな >>822
独力で書けないという方向に誘導してるのはあなたじゃないかw 掲示板で質問すれば何でも教えてくれるとか。ゆとり、俺様世代だろw 久々に板に来てみればワッチョイ入れたんだな、宣伝っぽいレスが全然なくてワロタ。
>>822
指導教官を探してるのなら、大学に入り直すのが手っ取り早い。
指導だって仕事でやってるんだ、外部の人に時間やコストを割く余裕なんか普通はない。
とにかく論文を書きたいなら、>>817 も書いてるようにさっさと書いて公開すればいい。
URL 貼れば論評くらいなら真面目にするよ。フォーマットなんて論文読んでりゃ自然に分かる。 大学や学部にもよるけど、うちの大学の場合、学部4年の半分位が学会発表、査読付き論文はほぼゼロ、修士2年だと大半が学会発表、数人が査読付き論文採録て感じ。査読付き論文採録まで独学でたどり着くのと、大学に入ってちゃんとした教育を受けるのとどちらが近道かな? 査読つきや学位を考えてるなら、もちろん大学に入るしかない。そういうことのためにある場所なのだから。
まぁ歴史的発見でもする自信があればその限りではないがw 退学したとしても、復学時にそれまでに取得した単位が有効の場合もあるから、まず退学した大学の事務に相談した方がいいよ。関係が良好なら指導教員にも。 >>823
>>824
>>825
>>827
やっぱり独自で書くしかないかな
論文は他人の読むしかない
>>828
査読付きまで行きたいが難しいか…
研究論文が大卒レベルだと認められれば資格審査は受けられると思うが
>>830
もう既に社会人だから、大学に入り直すのは難しい… 一応政府の旗振りでリカレント教育(社会人などの学び直し)を推進してるから社会人で大学に入り直すのは難しくなるかもよ >>831
向学心は良いにしても、社会人でありながら
研究テーマも決まってないのに論文書きたいってのが良く分からんな
本当にやりたいことが決まってから再考してもいいんじゃないか リカレント教育か、へー、しかし勉強しなおしても社会、会社がねー >>833
テーマはいくつか考えてはいる
その中から絞ろうとは思ってる 査読なしの論文はほとんど評価されないからね...
タイトルと共著者の名前を見て、あの先生のとこの学生かー、くらい。
とりあえず学会発表することを目標にしてみたら? >>837
素朴な疑問だが会社はそういう活動を許してくれるのか? このスレ、相変わらず学歴や学術会コンプの強い人が定期的に現れるんだなw >>838
割と大丈夫
>>839
俺はどうしても情報系の研究がしたいからJAIST入学を考えてる 一番手軽なのはどこにも属さず自分で研究して、自分で論文を書いて
ホームページを作ってそこで発表することだなw アホの思い込み、どこでもできるだろ
>どうしても情報系の研究がしたいからJAIST入学を考えてる
いいネタだった 大卒の肩書がなくとも論文を書けるぐらい超有能ならアメリカの大学院へ行けばいいじゃない >>841
大学へは行けないんじゃなかったのかよwww >>842
学会発表しないと認められないと思うんだ 知り合いがいるから今度変なやつが受験するとこっそり伝えておこう これ以上何回エポック回しても、中退じゃ無理だって学習してくれないみたいだし、
多分モデル設計が悪いのか、学習率上げ過ぎて重みの大半が死んでるんだろうな... 移動平均などから期間中の標準偏差を出そうとした時、期間中の値は全て明らかなので分散をnで割るべきか、n-1か、どちらが良いでしょうか? データが馬鹿でかければ影響はほとんどないといえるが
質問されている方の、
>期間中の値は全て明らかなので
この質問をみた限り、データマイニングや機械学習をやる前に、
統計解析の基本を学ばないといけない。 >>856
移動平均なので対象期間のデータ(母集団)は全て把握してる認識ですが、違いますか? AI専門家が仲間入り、7桁の高額給与を約束する職種
https://www.bloomberg.co.jp/news/articles/2018-02-14/P44LJ96JIJV701
博士号を取得したばかりでも30万ドルを上回る収入を得ることが可能
だそうです
AIバブル真っ盛り、でもこれから50年くらいは続くんだよね 昔USAの三大AI学科で博士号をとるとすぐに高級取りといわれていた >>857
対象期間の全パターンを調べないとそうならないでしょうね。
パターンは無限なので、調べられないけど。 >>862
普遍分散を適用するのが一般的ということですね? AlphaZeroのソースコードはわずかホワイトボード一枚に収まる : 情熱のミーム 清水亮
ttp://japanese.engadget.com/2018/02/12/alphazero/ むかしむかしAPLという言語が有った
極端に短いコードが書ける、特殊な記号をつかうので
キーボードも見知らぬ記号が入ったものだった。
現在の言語より相当短くかけるが
メンテナンス性に問題があった。
それを思い出しちゃったよ。 >>868
昔情報処理試験にPL1という言語があったな。
でもなんでCOBOLってなんでまだあるの? >>869
銀行とかのシステムで使ってるからその保守要員には必要な知識
ただしそのうちシステムもCOBOLなんて使わなくなるだろうから新卒で銀行の保守にあてがわれてCOBOLしかできないような人は近々捨てられる運命 >>869
PL1は昔仕事で使ったことあるわ
組み込みだった =言語の歴史=
『PL/I』・『ケン・トンプソン』・『デニス・リッチー』
と
『C言語、』『UNIX』
の意外な関係。
なんてのがあったね。
PL/Iが無かったらUNIXは生まれなかったろうという。 >>868
代入記号が特殊キーボード使って←で
A←A+1
だったのはそろそろ見習って欲しい 駿「他人の業績を自分がやったように語る、極めてなにかDM社に対する侮辱を感じます」 >>871
次はAI繋がりでおそらくpythonだろうな。 PL/MでなくPL/1を組み込みに使うなんてリッチな
環境ですね 良し悪し分類と種類の分類でどうニューラルネットワークの設計変わるんや
例えば料理だったら 美味そうか点数付けるのと料理の種類判別するのの違い >>879
> PL/MでなくPL/1を組み込みに使うなんてリッチな
MITのProject MACの内容、特にOSのMulticsについて調べてごらん
このOSは当時の最新最強の言語であったPL/Iで書かれたんだよ
そしてBell Labs.もこのプロジェクトに関わっていたが後に撤退し
その失敗の反省を踏まえてBell Labs.の連中が作ったOSがUNIX
つまり何でもできるようにしようとして規模がどんどん膨れ上がったMULTIcsに対するアンチテーゼとして
狙いを絞って軽量小型で反応も速いUNIxが生み出されたわけだ
ただしUNIXの記述言語のCについてはPL/Iから特に影響は受けた点はないと思う
C言語がどういった言語たちから影響を受けてどんな流れで誕生したのかも面白い話題だが
それはまたいつか気が向いたら書くかも知れない お客さん >>882 はどうも、Multicsを組み込みに使っている
みたいなんですけど。頭おかしいですよね。
そもそもライセンス違反ですよね >>884
> お客さん >>882 はどうも、Multicsを組み込みに使っている
882が>>879へのレスでその879が「組み込みに使うなんて」と書いてるからと言って延髄反射で上のように揶揄レスをするのは
君自身の頭の悪さ、読解力の欠如をわざわざ自分から曝け出しているだけの行為だよ
879がなぜ突然にPL/Iと言い出したかを考えれば、879が狂人でもない限り、その原因は>>874の
> 『PL/I』・『ケン・トンプソン』・『デニス・リッチー』
> と
> 『C言語、』『UNIX』
> の意外な関係。
>
> なんてのがあったね。
> PL/Iが無かったらUNIXは生まれなかったろうという。
以外には見当たらない。だから私の882は、その874で触れられていて879が反応したと推測されるPL/IとUNIXとの因縁を述べたのですよ。
879が「PL/Iを組み込みに使うなんて」と組み込みという言葉を急に持ち出したのは874で組み込みで広く使用されているC言語が出ているからだと推察できる。
なお、一言断っておくと、言語の名前として879のように“PL/1”と書く人も少なくないがこれは間違い、正しくは1のローマ数字を用いた“PL/I”だ。
884はもう少し議論の文脈をきちんと押さえてから反応することだね。でないと己の読解力の不足を示すだけのレスになってしまうよ。 >>882
MITは今Juliaだ。そのうちpythonにとって変わる。 Juliaはこの10年近くAV界を席巻したな
将来性と言っても・・・・ Iとか1とかlがごっちゃになってるのは
昔のタイプライター式キーボードの名残で云々 >>888
どっちの用途でも、性能アップにはシリコンデバイスの増設が必要だねw qiitaは真面目な記事とゴミ記事の落差がありすぎる 変数が・・・・・まぁ気にしない人は気にならないのだろうけど。 yjcaptionsを形態素解析でパースしたら語彙数が10000以上になってしまった
seq2seqするなら1hotと分散表現と1文字ごとと語彙減らすのどれがいいかな おまいら、学習ってどれくらい時間使ってる?
ワイ、遺伝的アルゴリズムで8時間くらいPCフルで動かしてる Juliaって使いにくいんだよな
matlabのコマンドウインドウをそのままpython対応にしてほしいわ tensorflowからkerasに移行したけどもっと早くに変えとくべきだったわ
kerasの楽さになれたら戻れんな chainerはtrainerに投げるまでのパッケージが何段階もあって面倒
kerasはモデル作ってコンパイルしてフィットするだけだから分かりやすい >>915
TFは別格にしても、pytorchもかなり流行ってきてるな >>914
そんなことはみんな知ってるけど、信者が荒れるから避けてきてるんだよ
>>915 >>916
FB が頑張ってるからな kerasは抽象化進んでるからこまい部分いじろうとしたらtf モデルだけkerasで作って、訓練はtfに投げるっていう手もある >>917
ワッチョイにしてから問題ないよ〜
>>918 >>919
そういう使い方いいな あるモデルの予測性能に低下が見られた場合
トレーニングに使ったデータが既に手元にない時は
何をもとにチューニングをすれば良いのでしょうか >>921
トレーニングに使ったデータを用いた予測と
直近のデータに差が生じた。
=>トレーニングに使ったデータでは差が出る
=>直近のデータでチューニングする
じゃないの? 学習モデル無いのにどこをどうチューニングするんだろう オンライン学習でいいんじゃないの
トレーニング用のデータはない、新しいデータもない場合は無理な話だけどバリデーション用のデータがあるから性能評価できてるんだろうし サポートベクター回帰について質問があるんだけど、
ここでいいの? >>927
新しいデータがないとすると
チューニングが必要かどうかも
分からないと思うんだけど オンライン学習を使わない場合は
モデルを継続的にメンテナンスするのに
モデル作成時とそれ以降のトレーニングデータを
延々と保持し続ける必要があるということ?
実務ではどうやっているのだろう 時系列的に変化してゆくものなら
初期モデルを保持する必要はないでしょう
初期状況がスタートになるデータと、
そうでないデータがあるなら
両者保持してそれぞれに適用する。
後者は動的に変化させてもいいし初期を引きずる
必要もない。
ま、置かれた状況に寄りということになるでしょうね。 ロバスト性の維持を必要とするかしないか
今のAIはその辺りの思考は適当かもしれない 例えば手書き文字認識で最初に1万件のトレーニングデータで判別モデルを構築
その後新たに2万件のデータが入手できてそれをモデルに学習させるという場合
合わせて3万件のデータで適切なパラメータを探してテストしてモデルを構築することになるのかな
これはモデルを新しく構築するのと変わらないように思えるけど
つまり「学習≒モデルの新規作成」ということなのかな
これを続けるといずれはリソース不足になるけど
それを防ぐために最新の3万件を使ってモデルを構築するしくみにすると
切り捨てた古いデータから得られた知見はモデルに反映されないということになるのかな サポートベクター回帰のことで質問。
目的関数や判別関数のなかにΣ(a-a*)っていう項がある。
a*は何を指していて、どうやって計算すればいいのだろうか。
ひょっとして、回帰曲線より上にあるデータに関してはaを計算し、
下にあるのはa*を計算するっていう風にするのかな?
もしそうだとすると、学習中は回帰曲線が変化していくのに合わせて、
aかa*かを変えていくってことなのかな?
実際の数式は、例えば↓のP.11
ttp://datachemeng.com/wp-content/uploads/supportvectorregression.pdf >>935
オンライン学習だね
ディープ系だとあとから追加された教師データの影響が限定的な気がする
あとから追加された教師データで別のモデル作って、旧モデルとのアンサンブルを蒸留したほうが実用的には良い気がする >>935
単純に最新の2万件だけとかにすると
同じデータばっかり連続して入ってくると
馬鹿になってしまう いつのまにかkerasがCNTKに対応してたんだけど、やっぱりwindowsだとCNTKのほうが相性よかったりするんだろうか >>940
CNTK の Keras 対応はまだベータのままだと思うよ >>936
どや顔で答えるけど複素共役
重み係数に実数じゃなくて複素数使用することで重みの大きさだけじゃなくて、通信遅れみたいな取得波形のズレ具合みたいなものも相関取れる しもた
どや顔してまちがえてしまた
ただの同じ種類の変数やん。 >>944
重みというか、重みに関係するラグランジュ乗数だよ。
各学習データに乗数が2つあると考えるのかな?
あと、ついでに、この乗数を計算する更新式を知らないかな?
SVMの学習に使う更新式は見つかるんだけど、SVRの更新式が見つからない。 これらは筆者独特の説明のためにαとα*に分けただけ
本来はα-α*=A、α+α*=A'とでもおけばよい
ついでに言うとどうでもいいことだがこれらは本来のラグランジュの未定乗数法の定数ではない
筆者は何か定義を間違えてるのでは? リンク先の資料ではなく
他の参考書なりネットで落ちてる他のものを見たほうがいいと思うけど。
基本的には重みを変化させて評価関数が小さくなるように重みを更新したらいいだけ。その方法は勾配法なり何でもよい というか後半は二次形式になるから評価関数を偏微分して=0とし、重みに関する行列つくって逆行列求めて終わり >>946
他の資料をいくつも見てるけど、数式は同じだよ。
だから、筆者独自の考えではないと思う。
>>947
評価関数を最小にするよう重みを求めるのは分かるんだけど、
そのための常套手段というか効率のいい手法があれば教えて欲しい。
ないのかな。
>>948
俺の頭が追いつかなくて、全然理解できない。
逆行列を計算することで、最適解が解析的に得られるってこと?
色んな資料を見てると、そうではないようなんだよ。
あるいは、数学的には可能なんだけど、計算量が膨大なのかもしれない。 >>949
いやだからリンク先の資料は説明のための式変形だってば。意味を見いだすためだけの式展開。
方法は単純に中点法なりランダム法とかでよい。ただの凸関数だし。
適当に重みを2パターン用�モして2点の評価関数を計算。さらに重みをそれぞれの中点求めてその値での評価関数も計算。一番評価関数が小さいものを更新。それでいける。
そもそも評価関数が重み定数の二次形式になってるから、最適解は一つしかなく、評価関数を重みベクトルの行列で表すとry >>950
そこまでわかってるやつなら機械学習しなくても
直接方程式解いて最適解求めるプログラム書いた方が早くね >>952
逆行列を求めるっていうのは、↓の式(7)を求めることに相当する?
ttp://cl-www.msi.co.jp/reports/svm.pdf >>955
じゃあ、>>954の方針でやってみるよ。
いろいろありがとう。 逆行列を計算する方法知ってるかいな?次元は知らんけど ちげえよ。
ニューラルネットの性能のほうが圧倒的になった今、もはや過去の産物が必要とされないから そもそもカーネル法は単体の技術じゃない。
他の手法と併用出来る応用性の高い技術。応用先はサポートベクトルマシンに限らない。 ディープラーニングにもカーネル法は当然応用できるが、単純にただ併用するだけでは意味がない。
恐らくもうすでに誰かがやってると思われるが、その結果だけでカーネル法ダメダメと決めつけるのは勿体ない。
もう一工夫取り入れると‥‥ ってところまで誰かやってくんないかな〜。
業種が違うから表に出せる機会がない 理論的、究極的にはにはそういう前処理すら必要ないのがニューラルネットだけどね
その操作が本当に判別に有効ならそういう処理を行う層が学習されるだけだし ニューラルネットは前処理いるじゃねえの?今は違うのか? >>968
昔も今も変わらない。
>>967の方が、なにか大きな勘違いをされているだけ 空間を一度別空間に写像してから‥
なんてイメージが付いちゃってるから>>967みたいな発想になるんだろうね。
ほんと勿体ない ニューラルネットだけ別スレにしたほうがいいんだけどな
>>962
ド素人 www
>>963
同意。 究極的にはって書いたけどそれでも違うの?
理論上は無限層重ねたNNはいかなる関数近似もできると思ってたけど 仮にNN中で汎化性能維持するのにカーネル法使うにしても「もうひと工夫」がなにしたいのかもわからん状態じゃなんとも… >>977,978
それはぜひご想像してください。
というか、以前のスレ追いかければ言いたいことは追えるかと
>>979
3層というか‥ そういえば皆さん中間層1つのNNって何層NNって読んでるの
全結合処理に重点おいて2層って言う人と、ノードに重点おいて3層って言う人がいる印象 タイトルに初心者スレと入れた方が良いね
というか次スレはいらねぇだろ >>977
適切にデータが用意されていれば(前処理されていれば)
という条件の元 >>983
俺も同じ疑問を持った。まぁ実験すると言ってるだけだしw 今更ながらランダムフォレストを勉強中なのですが、木の深さと木の数はどのくらいの値にすれば良いのでしょうか?
また、木の数を増やしていくのと、木の深さを上げていくのではどっちがオススメですか?数十万個のデータから決定木を生成したいのですが >>988
分類か回帰かで違うみたいだけど、普通分類なら深さは制限しない。
木の数を増やしていくと汎化性能は上がるけど、その分計算時間がかかるようになるので
OOBエラーなんかを見ながら木の数を決定するのが一般的かなぁ。 このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 148日 2時間 21分 7秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。