機械学習とデータマイニングについて何でもいいので語れ若人
※ワッチョイだよん
次スレ立ての際は、一行目冒頭に
!extend:on:vvvvv:1000:512つけてね
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング19
http://mevius.2ch.net/test/read.cgi/tech/1520586585/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured
【統計分析】機械学習・データマイニング20
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん (アウアウエー Sa5f-Mv1r)
2018/08/07(火) 18:56:37.59ID:sGPH9ejna584デフォルトの名無しさん (ブーイモ MM62-MxRe)
2018/09/26(水) 13:07:40.99ID:SJU9UbCQM585デフォルトの名無しさん (ブーイモ MM62-MxRe)
2018/09/26(水) 13:09:08.33ID:SJU9UbCQM >>581
ちょっと調べてみます。
ちょっと調べてみます。
586デフォルトの名無しさん (ブーイモ MMb6-MiFZ)
2018/09/26(水) 14:20:02.13ID:iQ/1ta8NM >>584
qtクラスタリングとかどうよ?
qtクラスタリングとかどうよ?
587デフォルトの名無しさん (ワッチョイ 8223-coYL)
2018/09/26(水) 14:48:10.49ID:nIEdWeYp0 画像にキャプション付けてくれるサービス探したらありそうだけど
588デフォルトの名無しさん (ワッチョイ 8667-SLjp)
2018/09/26(水) 17:42:13.90ID:/NSmYwyE0 googleが人間にゴリラってタグ付けてたの思い出した
589デフォルトの名無しさん (ブーイモ MMed-7r02)
2018/09/26(水) 18:41:51.88ID:IVfMWxLtM >>588
当欠だな
当欠だな
590589 (ブーイモ MMed-7r02)
2018/09/26(水) 18:42:16.88ID:IVfMWxLtM s/当欠/凍結/
591デフォルトの名無しさん (ワッチョイ c923-Czqz)
2018/09/26(水) 23:13:11.78ID:Lv/+nPmY0 あの画像なら人間でも間違えるから仕方ない
592デフォルトの名無しさん (ワッチョイ 65a5-tCrn)
2018/09/26(水) 23:34:16.52ID:KPLU+0tA0 SVCのモデルを作る時にMinMaxscalerでスケール変換して、GridSearchCVでインスタンス作って、それに対してスケール変換した訓練データを使って学習させるって事をやったんだけど、これはダメらしいんだけど前処理の前に交差検証しろっていうのがよく分からない。
交差検証の過程では分割されたデータの一部が訓練用、残りがテスト用になって、訓練用となった部分を用いてモデルを学習させて、テスト用はモデルに対しての評価に使われる。
ここまでは大体分かる
しかし実はスケール変換する際にテスト用となった部分に含まれてる情報を使ってしまってる。
このようなデータはモデルに対してまったく新しいデータとは本質的に異なる。
???訓練用の一部がテスト用になるから??
交差検証の過程では分割されたデータの一部が訓練用、残りがテスト用になって、訓練用となった部分を用いてモデルを学習させて、テスト用はモデルに対しての評価に使われる。
ここまでは大体分かる
しかし実はスケール変換する際にテスト用となった部分に含まれてる情報を使ってしまってる。
このようなデータはモデルに対してまったく新しいデータとは本質的に異なる。
???訓練用の一部がテスト用になるから??
593デフォルトの名無しさん (ワッチョイ 9fe7-sLUx)
2018/09/27(木) 09:27:07.99ID:sw1sA5ZZ0 >>592
スケール変換の際にテストデータの情報を使ってしまったら、そのテストデータは「まったく新しいデータ」とは言えない。
スケール変換の際にテストデータの情報を使ってしまったら、そのテストデータは「まったく新しいデータ」とは言えない。
594デフォルトの名無しさん (ワッチョイ 971e-ZVm4)
2018/09/27(木) 11:10:18.48ID:TDX1lgSt0 qiitaは機械学習の良い記事があっても全然ランキング入らなくなったな
ニワカが飽きたのか
ニワカが飽きたのか
595デフォルトの名無しさん (ブーイモ MMbf-wjEJ)
2018/09/27(木) 11:20:21.49ID:je3kizhWM >>568
pythonはプログラム言語でtensorflowやkerasは効率よく機械学習するためのライブラリ。
pythonはプログラム言語でtensorflowやkerasは効率よく機械学習するためのライブラリ。
596デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/09/27(木) 12:14:59.19ID:PZBFougTa597デフォルトの名無しさん (アウアウエー Sadf-QmoO)
2018/09/27(木) 22:08:27.94ID:wuMHpvCna598デフォルトの名無しさん (ワッチョイ 5723-qD32)
2018/09/27(木) 22:17:45.69ID:JFP1gXlP0 英語で検索した方が有用な情報多いよ
599デフォルトの名無しさん (ワッチョイ 971e-ZVm4)
2018/09/28(金) 00:38:02.48ID:ofrlpy9E0 いいね!稼ぎじゃはてな民くらいしか喜ばないしねぇ
600デフォルトの名無しさん (ワッチョイ 57c3-LqEF)
2018/09/28(金) 03:48:20.58ID:tygoHNB90 確かにQiitaは最近いいね減ったな
601デフォルトの名無しさん (ワッチョイ ff81-wjEJ)
2018/09/28(金) 05:57:58.09ID:f7OuEx/00 aidemyとpyqどっちで勉強したらいいですか?
602デフォルトの名無しさん (ブーイモ MM7b-4Fho)
2018/09/28(金) 08:06:29.54ID:tNPqQxrGM603デフォルトの名無しさん (ワッチョイ 17eb-G60S)
2018/09/28(金) 11:08:53.98ID:Y0/Lv67w0 QiitaとHatenaは、インストール大先生の記事が多すぎて困るから検索結果から外してるわ
604デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/09/28(金) 13:48:47.12ID:2IAcjEkAa 交差検証について検索してみるとその説明として、ある1つのモデルを考えた場合に、
元データをN分割してその内(N-1)個で学習して、残り1個でテストするのをNパターン繰り返すようなものと理解した。
しかし、CourseraのWeek6で説明してる交差検証は複数のモデルを思いついた場合の最良モデルを選択する手段と説明されており、
データをA,B,Cに3分割して、各モデルをAで学習、Bで評価して比較(このBをcross validation setと呼んでいる)、Bの評価で決定された最良モデルをCで最終評価するという内容になっている。
両者は別物のような気がするんだけど自分が理解しきれていないだけなのか?
元データをN分割してその内(N-1)個で学習して、残り1個でテストするのをNパターン繰り返すようなものと理解した。
しかし、CourseraのWeek6で説明してる交差検証は複数のモデルを思いついた場合の最良モデルを選択する手段と説明されており、
データをA,B,Cに3分割して、各モデルをAで学習、Bで評価して比較(このBをcross validation setと呼んでいる)、Bの評価で決定された最良モデルをCで最終評価するという内容になっている。
両者は別物のような気がするんだけど自分が理解しきれていないだけなのか?
605デフォルトの名無しさん (ワッチョイ 9f52-aQox)
2018/09/28(金) 13:54:00.86ID:gzs2bud+0 >>601
俺ならaidemyの無料部分だけ流し見してからPyQやる
俺ならaidemyの無料部分だけ流し見してからPyQやる
606デフォルトの名無しさん (アウアウエー Sadf-QmoO)
2018/09/28(金) 13:56:04.74ID:SiTAO34aa607デフォルトの名無しさん (ワッチョイ 971e-ZVm4)
2018/09/29(土) 02:24:39.57ID:yQMwJEzv0 キーエンスなんかは見込み客の連絡先を得るためにホワイトペーパー量産してるんだけどね
608デフォルトの名無しさん (ワッチョイ 778a-S4i9)
2018/09/29(土) 08:04:19.54ID:wDXsR2010 キーエンスw
609デフォルトの名無しさん (ワッチョイ 971e-ZVm4)
2018/09/29(土) 08:26:36.08ID:yQMwJEzv0 あそこ営業に投資全振りだぞ
610デフォルトの名無しさん (ワッチョイ bf67-BiXC)
2018/09/29(土) 08:28:19.01ID:70xW0TAb0 誤爆?
611デフォルトの名無しさん (ワッチョイ 971e-ZVm4)
2018/09/29(土) 14:07:15.40ID:yQMwJEzv0 qiitaのいいね稼ぎじゃ具体的な恩恵にならんから続かないって話
612デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/09/29(土) 15:00:04.38ID:puJ5IR70a キーエンスのホワイトペーパーは捨てアド偽名でダウンロードしてるわ
613デフォルトの名無しさん (スッップ Sdbf-yIO0)
2018/09/29(土) 15:24:38.05ID:7SQdA+7Xd614デフォルトの名無しさん (ワッチョイ 179f-G9Ql)
2018/09/29(土) 17:38:55.50ID:ynHzs1ix0 機械学習のコンペばかりやっているが
いったい実務ではどのぐらいの精度ならOKにするのかとふと思った
いったい実務ではどのぐらいの精度ならOKにするのかとふと思った
615デフォルトの名無しさん (ワッチョイ 9f23-S4i9)
2018/09/29(土) 20:16:28.30ID:e3HXgOr80 >>614
kaggleでメダル取れた?
kaggleでメダル取れた?
616デフォルトの名無しさん (アウアウエー Sadf-QmoO)
2018/09/29(土) 21:12:49.04ID:a1dybsKxa617デフォルトの名無しさん (ワッチョイ 971e-ZVm4)
2018/09/30(日) 03:30:54.29ID:vyqR8BGx0 仕事では客が要求精度決めるから
それぞれだよ
それぞれだよ
618デフォルトの名無しさん (ワッチョイ 57c3-e6iu)
2018/09/30(日) 04:27:12.57ID:vzbl47da0 協調フィルタリングって任意の精度に調整する事って出来るのかな
例えば,精度が高すぎると新しい商品に巡り会えないから,適度に偶奇性を取り入れたりすること
またそのレベルを調整できるモデルって可能?
例えば,精度が高すぎると新しい商品に巡り会えないから,適度に偶奇性を取り入れたりすること
またそのレベルを調整できるモデルって可能?
619デフォルトの名無しさん (スッップ Sdbf-yIO0)
2018/09/30(日) 05:52:32.17ID:qu8/Df54d >>617
コスト度外視できんだろ、バカだな、なのか
コスト度外視できんだろ、バカだな、なのか
620デフォルトの名無しさん (スッップ Sdbf-yIO0)
2018/09/30(日) 05:53:02.84ID:qu8/Df54d >>616
2はそれじゃ無理
2はそれじゃ無理
621デフォルトの名無しさん (ワッチョイ 971e-ZVm4)
2018/09/30(日) 05:55:15.11ID:vyqR8BGx0 >>619
できる見込み立たなかったら出来ないって言うよ
できる見込み立たなかったら出来ないって言うよ
622デフォルトの名無しさん (スッップ Sdbf-yIO0)
2018/09/30(日) 06:00:07.93ID:qu8/Df54d >>621
そういうことじゃないよ、金の話しだよ。精度上げるのに必要な金を気前良く払う客なんて滅多にいない。
そういうことじゃないよ、金の話しだよ。精度上げるのに必要な金を気前良く払う客なんて滅多にいない。
623デフォルトの名無しさん (アウアウエー Sadf-QmoO)
2018/09/30(日) 06:23:01.63ID:/+1iIgD2a624デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/09/30(日) 09:48:36.88ID:ec4AtTFMa コスパって比率だからな
いくら比率良くてもパフォーマンスの絶対値が小さければ意味ないぞ
いくら比率良くてもパフォーマンスの絶対値が小さければ意味ないぞ
625デフォルトの名無しさん (ワッチョイ 7708-LSDD)
2018/10/01(月) 18:25:21.59ID:LX/fpUaV0 人工知能の本買ってきた
これで二冊目
迷ったけど
ディープラーニングとPython,Tensorflowの本にした
それにしても人工知能の本たくさんあった
5種類ぐらい
最初に買った「ゼロからはじめる〜」の本は10万部いったって
https://i.imgur.com/1QbZuPK.jpg
これで二冊目
迷ったけど
ディープラーニングとPython,Tensorflowの本にした
それにしても人工知能の本たくさんあった
5種類ぐらい
最初に買った「ゼロからはじめる〜」の本は10万部いったって
https://i.imgur.com/1QbZuPK.jpg
626デフォルトの名無しさん (アウウィフ FFdb-+W5L)
2018/10/02(火) 10:08:44.43ID:+xKncks4F 本屋の棚は賑わってるが粗製乱造
627デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/02(火) 14:00:24.78ID:2AKCrptK0 ネットに同等以上の記事はいくらでもあるけど
情報まとまってるし、時間ない初学者が買うのはあり
でも電子版じゃないとjupyterやcolabで手動かしながらやるのだるいから
実本はあまり勧めないな
つってもどんどん技術が陳腐化してくから、MLの基本とCNN,RNN,LSTM,GAN,Attentionの概要だけ身につけたら
あとはdeepmindのサイトと論文全部読んで
arxivでsota達成したのだけ数カ月分読むほうがトレンドを追いかけるには手っ取り早い
実装がメインなら論文追わずにKerasやっとけ
すごいのでたらそのうちKerasにも実装されるから
それ使えってのが俺の結論
情報まとまってるし、時間ない初学者が買うのはあり
でも電子版じゃないとjupyterやcolabで手動かしながらやるのだるいから
実本はあまり勧めないな
つってもどんどん技術が陳腐化してくから、MLの基本とCNN,RNN,LSTM,GAN,Attentionの概要だけ身につけたら
あとはdeepmindのサイトと論文全部読んで
arxivでsota達成したのだけ数カ月分読むほうがトレンドを追いかけるには手っ取り早い
実装がメインなら論文追わずにKerasやっとけ
すごいのでたらそのうちKerasにも実装されるから
それ使えってのが俺の結論
628デフォルトの名無しさん (アウアウエー Sadf-QmoO)
2018/10/02(火) 14:42:01.10ID:NniAR04ea NLP やるなら PyTorch がもう主流だけどな
629デフォルトの名無しさん (ワッチョイ 572d-tkFK)
2018/10/02(火) 15:23:49.58ID:vWOGvfhl0 みなさん、やっぱり、ハイスペックのゲーミングマシンで開発しているの?
630デフォルトの名無しさん (エムゾネ FFbf-+W5L)
2018/10/02(火) 15:43:52.26ID:yDKwoLm6F うむ
631デフォルトの名無しさん (ワッチョイ bf8a-S4i9)
2018/10/02(火) 17:16:03.25ID:87pQjPQD0 むう
632デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/10/02(火) 17:56:36.01ID:0PhHaGOIa クラウドでやるのと実機用意するのとどっちが安いか
633デフォルトの名無しさん (ワッチョイ 5723-qD32)
2018/10/02(火) 18:13:26.05ID:cO79peqD0 データ量次第としか
634デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/02(火) 18:41:23.89ID:2AKCrptK0 研究や学習用途ならもうcolabでいいんじゃねーの
TPUまで無料で使えるようになったから最強すぎるわ
ただ12時間超える学習なんかの場合は、途中で保存する処理を作るか
既にある処理を使う必要性がある、Kerasには既にある
tensorflowの低レベルでやる場合は自分で書く必要性あるのかな
Pytorchはまだ触り程度で詳しくないけど、kerasと同じようなライブラリあるならそれ使えばいい
業務やサービスの場合はどうせAWSかGCP,Azure借りるだろ
TPUまで無料で使えるようになったから最強すぎるわ
ただ12時間超える学習なんかの場合は、途中で保存する処理を作るか
既にある処理を使う必要性がある、Kerasには既にある
tensorflowの低レベルでやる場合は自分で書く必要性あるのかな
Pytorchはまだ触り程度で詳しくないけど、kerasと同じようなライブラリあるならそれ使えばいい
業務やサービスの場合はどうせAWSかGCP,Azure借りるだろ
635デフォルトの名無しさん (ワッチョイ 9f23-S4i9)
2018/10/02(火) 19:43:42.88ID:+CsxoQN10 学習中に不明な原因で接続が切れてた時の絶望感
636デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/10/02(火) 20:06:47.65ID:Fw3dw3lVa sotaという言葉を知らなかったので調べてみてstate of the artの略で直訳すると最先端とかそんな意味だから何となく言いたいことは分かったけど機械学習分野での定義に当たるものが全然見つからない
sota達成とか誰がどうやって決めてるの?
sota達成とか誰がどうやって決めてるの?
637デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/02(火) 22:59:32.38ID:2AKCrptK0 >>636
sotaって論文で書いてる連中は
arxivなどのオープンアクセスな論文サイトに投稿されてるコンピューターサイエンスの論文で有用なのはほとんど全部読んでる
だからどれが最高水準かを知ってるから
その分野におけるsota近辺のモデルの論文の結果と比較してsota達成としている
っていうのが俺の認識
論文完璧に追ってる以外にもカンファレンスで情報収集してるってのもあるだろうけど
物理学なんかと違って、ML分野はオープンアクセスな論壇で発展してきたからこうなってるんだろうけど
その辺の事情を追えてない日本人には全くわからん状態なのも仕方ない
sotaって論文で書いてる連中は
arxivなどのオープンアクセスな論文サイトに投稿されてるコンピューターサイエンスの論文で有用なのはほとんど全部読んでる
だからどれが最高水準かを知ってるから
その分野におけるsota近辺のモデルの論文の結果と比較してsota達成としている
っていうのが俺の認識
論文完璧に追ってる以外にもカンファレンスで情報収集してるってのもあるだろうけど
物理学なんかと違って、ML分野はオープンアクセスな論壇で発展してきたからこうなってるんだろうけど
その辺の事情を追えてない日本人には全くわからん状態なのも仕方ない
638デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/03(水) 00:45:53.65ID:+7Euz2g60 あぁカンファで同時にsota報告が上がってたんだな
そりゃカンファで採択されるかされないかと
オープンアクセスサイトでの論文公開タイミングは、ものによってはちげーから
いくら先端追ってる連中でも被るのは仕方ない
・GAN的な双方向マルチ学習(自然言語で言うなら敵対的逆翻訳のしあいっこ?)
・特徴に時間間隔とポジション付与
・Attentionの構造改善
この3つが大体の今のトレンドだろ
全部組み合わせたのも半年以内に出てくるだろうけど
結局の所、事象における連続した時間情報の把握と
その状態における時間変化率の学習が上手く出来てないから汎用AIにはなれんだろう
ちゃんとした学者にも俺と似たような事言ってる人いて
脳構造の模倣による時間情報の学習を、哲学的な部分からやろうって言ってる人いるけどどうなるかな
そりゃカンファで採択されるかされないかと
オープンアクセスサイトでの論文公開タイミングは、ものによってはちげーから
いくら先端追ってる連中でも被るのは仕方ない
・GAN的な双方向マルチ学習(自然言語で言うなら敵対的逆翻訳のしあいっこ?)
・特徴に時間間隔とポジション付与
・Attentionの構造改善
この3つが大体の今のトレンドだろ
全部組み合わせたのも半年以内に出てくるだろうけど
結局の所、事象における連続した時間情報の把握と
その状態における時間変化率の学習が上手く出来てないから汎用AIにはなれんだろう
ちゃんとした学者にも俺と似たような事言ってる人いて
脳構造の模倣による時間情報の学習を、哲学的な部分からやろうって言ってる人いるけどどうなるかな
639デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 01:19:02.14ID:jfGK+xYpd 脳構造だからうまくいくわけではない。
640デフォルトの名無しさん (ワッチョイ 9f65-i+ik)
2018/10/03(水) 01:29:53.26ID:dkrkSoVO0 神経構造なんかは既に解明されてるけど
そうなるとしか分かっていない回路形成の発生学とか
関与しているらしいけど何してるのかいまいち分かっていないグリア細胞とか
こっちの方がモデリングをする上で重要だと思うけどね
今のMLでは生物の機能の一部を模擬してるだけに過ぎない
そうなるとしか分かっていない回路形成の発生学とか
関与しているらしいけど何してるのかいまいち分かっていないグリア細胞とか
こっちの方がモデリングをする上で重要だと思うけどね
今のMLでは生物の機能の一部を模擬してるだけに過ぎない
641デフォルトの名無しさん (ワッチョイ 37a5-VkMC)
2018/10/03(水) 05:14:23.46ID:qbq9gQbU0 脳の機能(笑)哲学(笑)
642デフォルトの名無しさん (ワッチョイ 971e-ZVm4)
2018/10/03(水) 07:10:02.33ID:1cI2REY30 哲学の成功は論理学と実証主義で完成したと思うよ
643デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 12:26:33.96ID:+58IDnbyd 脳モデルはあくまでNN、DL起案者が何をモデルとして数学モデル化したかであり、NN、DLは脳モデルそのものではない。
また、そもそも脳モデルが最適なモデルかどうかはまだ証明が存在しない。
たまたまDLがよい結果出たからそう言われてるだけ。
脳モデルが最適かどうかという前提を何も示さずに、研究者のなかに、『脳の伝達には〜があるから○○を追加したらこうなるはず』みたいな議論されているのを見ると、滑稽に思う。
また、そもそも脳モデルが最適なモデルかどうかはまだ証明が存在しない。
たまたまDLがよい結果出たからそう言われてるだけ。
脳モデルが最適かどうかという前提を何も示さずに、研究者のなかに、『脳の伝達には〜があるから○○を追加したらこうなるはず』みたいな議論されているのを見ると、滑稽に思う。
644デフォルトの名無しさん (ワッチョイ 57c3-aemA)
2018/10/03(水) 12:28:55.71ID:sAnPmpeI0 なぜ最適を求める?
645デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 12:30:34.07ID:+58IDnbyd よりよい結果が出たらそっちを採用するだけ。
それが脳モデルになるとは限らない
それが脳モデルになるとは限らない
646デフォルトの名無しさん (ワッチョイ 9f23-aemA)
2018/10/03(水) 12:31:35.36ID:in1HBOwn0647デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 12:32:37.09ID:+58IDnbyd 世にこれだけディープラーニングが広まったのは、脳モデルの説明による功績が大きいけどな
648デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/10/03(水) 12:35:57.50ID:d+kLgL6ia 人間の脳が超省エネで高速に学習して予測結果の出力できているのと比較すると現行モデルは脳と呼ぶにはには程遠いんだけど非理系メディアでは人間の脳を模倣しているなどと喧伝される
649デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 12:37:46.63ID:+58IDnbyd 世に広めるにはイメージが大事です。
ただ研究者はイメージで研究してはダメです。
ただ研究者はイメージで研究してはダメです。
650デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/03(水) 13:20:41.80ID:+7Euz2g60 CSなんて結局は計算能力との兼ね合いだからな
仮に完全に脳構造を模倣したモデルを組み上げたとしても
それがクソ重くて現行の計算資源で回らなけりゃクソだとしか評価されん
かといって脳構造の模倣や考察を放棄するのは適切じゃない
世界モデルもこっちよりだし、強化学習をやるためには避けられないだろう
問題はRNN,LSTMでは事象における連続した時間情報をあまり学習できてないってことだな
TransformerとUTは時間間隔をと位置情報を特徴に埋め込む事で
マルチヘッドセルフattentionにそれらを処理させているが
おそらくは完璧を求めると
階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み
なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある
これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう
計算力はどうせなんとかなるだろうし
誰かが気づけば、あと10数年で汎用AI完成するんじゃね
仮に完全に脳構造を模倣したモデルを組み上げたとしても
それがクソ重くて現行の計算資源で回らなけりゃクソだとしか評価されん
かといって脳構造の模倣や考察を放棄するのは適切じゃない
世界モデルもこっちよりだし、強化学習をやるためには避けられないだろう
問題はRNN,LSTMでは事象における連続した時間情報をあまり学習できてないってことだな
TransformerとUTは時間間隔をと位置情報を特徴に埋め込む事で
マルチヘッドセルフattentionにそれらを処理させているが
おそらくは完璧を求めると
階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み
なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある
これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう
計算力はどうせなんとかなるだろうし
誰かが気づけば、あと10数年で汎用AI完成するんじゃね
651デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/03(水) 13:29:51.05ID:+7Euz2g60 そもそも脳構造の哲学的推測における模倣はイメージじゃなくて
ただの論理的思考なんだけど
推測の過程において論理が飛躍しすぎてると
大抵の人は妄想だと判断して、考察を放棄する傾向があるからしょうがないわな
それが当たり前だもの
ただの論理的思考なんだけど
推測の過程において論理が飛躍しすぎてると
大抵の人は妄想だと判断して、考察を放棄する傾向があるからしょうがないわな
それが当たり前だもの
652デフォルトの名無しさん (アウウィフ FFdb-+W5L)
2018/10/03(水) 13:44:52.38ID:oOvr2XyQF653デフォルトの名無しさん (ワッチョイ 9f23-aemA)
2018/10/03(水) 14:55:39.60ID:in1HBOwn0 遺伝的アルゴリズムも名前が強そうだけど、中身はびっくりするレベルでしょぼいよね
654デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/10/03(水) 15:06:45.43ID:6o3Z2FT6a ニューラルネットワークなんて回帰を多層にしただけの超単純構造
655デフォルトの名無しさん (ワッチョイ 178a-S4i9)
2018/10/03(水) 15:13:09.66ID:sMpk7EKP0 >>653
はったり、生物の進化淘汰なんかどこにもない
はったり、生物の進化淘汰なんかどこにもない
656デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 17:49:41.29ID:+58IDnbyd 大事なことなので復唱します。
世に広めるにはイメージが大事です。
ただ研究者はイメージで研究してはダメです。
研究者の中には、脳モデルが最適かどうかという前提を何も示さずに、
『脳の伝達には〜があるから○○を追加したらこうなるはず』
みたいな議論されている方々がおりますが、根拠が薄く滑稽に思います。
世に広めるにはイメージが大事です。
ただ研究者はイメージで研究してはダメです。
研究者の中には、脳モデルが最適かどうかという前提を何も示さずに、
『脳の伝達には〜があるから○○を追加したらこうなるはず』
みたいな議論されている方々がおりますが、根拠が薄く滑稽に思います。
657デフォルトの名無しさん (ワッチョイ 17d2-ZVm4)
2018/10/03(水) 17:57:56.16ID:Oh5w9UQA0658デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/10/03(水) 18:01:02.58ID:3Ieh8Fw3a 最適かどうかは完成物があれば評価できるんだからいいでしょ
そもそも分からないから研究して新しいモデルを作るわけで
最初から何が最適か知っている人がいてそれを論理的に説明できるのならばとっくにそれがスタンダードになっているはずだがそうはなっていないんだから最適など誰も知らないと考えるのが自然
そもそも分からないから研究して新しいモデルを作るわけで
最初から何が最適か知っている人がいてそれを論理的に説明できるのならばとっくにそれがスタンダードになっているはずだがそうはなっていないんだから最適など誰も知らないと考えるのが自然
659デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 18:05:20.45ID:+58IDnbyd つまりはまあ、最近の機械学習の論文なんて実績と経験則の積み上げ(帰納)によるものがほとんど。
より良きモデルからスタートしたモデルのアイデア(演繹)を求む
より良きモデルからスタートしたモデルのアイデア(演繹)を求む
660デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 18:10:02.59ID:+58IDnbyd アイデアと結果はあるのだかどうやって世に広めたらよい?
661デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/03(水) 19:13:50.43ID:+7Euz2g60 結果あるなら論文書いてarxivに投稿すりゃいいじゃん
高校生ですらMLの論文書いて投稿してたの昨年話題になったろ
高校生ですらMLの論文書いて投稿してたの昨年話題になったろ
662デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 19:49:21.65ID:+58IDnbyd とんくす
663デフォルトの名無しさん (ワッチョイ 778a-S4i9)
2018/10/03(水) 20:20:45.13ID:/V77wCG20 くず
664デフォルトの名無しさん (アウアウエー Sadf-jt0n)
2018/10/03(水) 20:46:41.49ID:YGFwuNMda665デフォルトの名無しさん (アウアウエー Sadf-jt0n)
2018/10/03(水) 20:48:04.20ID:YGFwuNMda666デフォルトの名無しさん (アウアウエー Sadf-jt0n)
2018/10/03(水) 20:49:11.35ID:YGFwuNMda667デフォルトの名無しさん (アウアウエー Sadf-jt0n)
2018/10/03(水) 20:50:21.87ID:YGFwuNMda668デフォルトの名無しさん (アウアウエー Sadf-jt0n)
2018/10/03(水) 20:52:26.70ID:YGFwuNMda669デフォルトの名無しさん (ワッチョイ bf8a-EJHQ)
2018/10/03(水) 21:20:45.12ID:nJKVxi/i0670デフォルトの名無しさん (ワッチョイ bf8a-EJHQ)
2018/10/03(水) 21:23:50.17ID:nJKVxi/i0 また一概には言えないかもしれないが、結果がローカルなものになりがち
671デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/03(水) 21:59:40.34ID:+7Euz2g60 そもそも、ある程度iter重ねるか、少数サンプルで訓練した結果をプロットしつつ
新しいモデルを模索してくのが、今のMLにおける超大多数の手法であって
最初から論理的組み立て部分で有効性を実証してから研究始めるなんて手法は
明らかにメジャーではない
取り敢えず予測モデルで雑なコーディングして、訓練結果をプロットしてみてから
数理モデルの有効性に論理的説明をつけるって手法がメインなのは
有用な結果を残してる論文の内容からも分かる話
ほとんどだーれも論理的説明を完璧に付けてから研究開始なんざしてない
+58IDnbydの論理展開を適用すると、全員滑稽になっちまわないか?
そういう意味で、既に有効性の確認されている脳っていうクソ速いモデルを模倣するっていうのは
その時点である程度の論理的根拠を示しているとすら言える
新しいモデルを模索してくのが、今のMLにおける超大多数の手法であって
最初から論理的組み立て部分で有効性を実証してから研究始めるなんて手法は
明らかにメジャーではない
取り敢えず予測モデルで雑なコーディングして、訓練結果をプロットしてみてから
数理モデルの有効性に論理的説明をつけるって手法がメインなのは
有用な結果を残してる論文の内容からも分かる話
ほとんどだーれも論理的説明を完璧に付けてから研究開始なんざしてない
+58IDnbydの論理展開を適用すると、全員滑稽になっちまわないか?
そういう意味で、既に有効性の確認されている脳っていうクソ速いモデルを模倣するっていうのは
その時点である程度の論理的根拠を示しているとすら言える
672デフォルトの名無しさん (ワッチョイ bf8a-EJHQ)
2018/10/03(水) 22:50:21.46ID:nJKVxi/i0 >>671
別にメジャーじゃなくてよい
別にメジャーじゃなくてよい
673デフォルトの名無しさん (スッップ Sdbf-yIO0)
2018/10/03(水) 23:45:59.60ID:23QaCALXd pytorchのdevcon見たけど、想像以上に大企業がサポートしてて驚いたわ
674デフォルトの名無しさん (アウアウエー Sa6a-yUUL)
2018/10/04(木) 02:41:08.39ID:pZO9AOgra 見てみたけど、グローバルなAI 企業オールスターって感じか。
もっとも作ってるのが FBだから別に不思議でもないけど
もっとも作ってるのが FBだから別に不思議でもないけど
675デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
2018/10/04(木) 08:08:02.24ID:WxW/ujNfa676デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
2018/10/04(木) 08:09:50.53ID:WxW/ujNfa677デフォルトの名無しさん (ワッチョイ ba23-vBoO)
2018/10/04(木) 09:59:48.56ID:s8ye5l4L0 >>674
chainerは消えゆく運命だな
chainerは消えゆく運命だな
678デフォルトの名無しさん (アウアウエー Sa6a-TFgJ)
2018/10/04(木) 10:14:52.99ID:AR+RrRuFa 好きなんだがなあchainer
679デフォルトの名無しさん (シャチーク 0Cde-XM+q)
2018/10/04(木) 12:34:16.99ID:zfP46g3nC Google Colaboratoryで
!apt -y install libcusparse8.0 libnvrtc8.0 libnvtoolsext1
ができなくなったのだがどうしたらいいのか
!apt -y install libcusparse8.0 libnvrtc8.0 libnvtoolsext1
ができなくなったのだがどうしたらいいのか
680デフォルトの名無しさん (JP 0H9a-2jv+)
2018/10/04(木) 16:03:33.77ID:ux982JKKH 演繹厨うぜえ
681デフォルトの名無しさん (ペラペラ SD5a-DeRO)
2018/10/04(木) 16:06:35.89ID:U2kQDcc/D >>677-678
tensorflow vs pytorch の構図が完全できちゃったんで他のフレームワークはどれも厳しいけど、
tf の独占を阻止できたのは良かったと思う。 tf が pytorch を滅茶意識してて笑えるw
tensorflow vs pytorch の構図が完全できちゃったんで他のフレームワークはどれも厳しいけど、
tf の独占を阻止できたのは良かったと思う。 tf が pytorch を滅茶意識してて笑えるw
682デフォルトの名無しさん (ワッチョイ f41e-Qng4)
2018/10/04(木) 21:40:33.09ID:OD7dB/YO0 vs?
683デフォルトの名無しさん (フリッテル MM5e-DXVT)
2018/10/04(木) 22:39:26.90ID:ktsy0FKAM visual studio
684デフォルトの名無しさん (スッップ Sd70-qFZH)
2018/10/04(木) 22:49:09.65ID:Y2bv5t2ed >>678
良くも悪くも学生の趣味の域をこえてないのが残念。こえる気もないのかもしれんが
良くも悪くも学生の趣味の域をこえてないのが残念。こえる気もないのかもしれんが
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【外国人問題】小野田紀美担当相「不法就労や不法滞在は許さない」 [シャチ★]
- 橋下徹氏 外務省幹部の訪中受け「口だけ番長」へ痛烈指摘 「喧嘩は日本の完敗…なんとかっこ悪い日本か」 [冬月記者★]
- 【野球】井端監督 大谷翔平、山本由伸らのWBCへの参加 「1日も早く返事ほしい」「待っててといっても、国内組が遅くなってしまう」★3 [冬月記者★]
- 中国で「クレしん」公開延期 対日報復、エンタメに波及 [蚤の市★]
- 経団連会長、日中は建設的対話を 経済3団体が高市首相と初会談も日中関係は話題に登らず… [BFU★]
- 【映画】『クレヨンしんちゃん』 中国で公開延期 対日報復、エンタメに波及 [冬月記者★]
- 日経時間外、5万円割れ 垂直落下始まる [402859164]
- サロピン💗行って来たらさWWWWWWWWWWWWWWWWWWWWWWWW
- 有識者「高市総理が発言を撤回したり、辞職するしかないと言っている人は、それで日中関係が今まで通りになると思ってる?」 [834922174]
- ウッドデッキで調子こいてたやついたじゃん
- 🦉エッホエッホ アンパンマンは猫舌って伝えなきゃ
- えんやすー
