機械学習とデータマイニングについて何でもいいので語れ若人
※ワッチョイだよん
次スレ立ての際は、一行目冒頭に
!extend:on:vvvvv:1000:512つけてね
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング19
http://mevius.2ch.net/test/read.cgi/tech/1520586585/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured
【統計分析】機械学習・データマイニング20
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん (アウアウエー Sa5f-Mv1r)
2018/08/07(火) 18:56:37.59ID:sGPH9ejna630デフォルトの名無しさん (エムゾネ FFbf-+W5L)
2018/10/02(火) 15:43:52.26ID:yDKwoLm6F うむ
631デフォルトの名無しさん (ワッチョイ bf8a-S4i9)
2018/10/02(火) 17:16:03.25ID:87pQjPQD0 むう
632デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/10/02(火) 17:56:36.01ID:0PhHaGOIa クラウドでやるのと実機用意するのとどっちが安いか
633デフォルトの名無しさん (ワッチョイ 5723-qD32)
2018/10/02(火) 18:13:26.05ID:cO79peqD0 データ量次第としか
634デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/02(火) 18:41:23.89ID:2AKCrptK0 研究や学習用途ならもうcolabでいいんじゃねーの
TPUまで無料で使えるようになったから最強すぎるわ
ただ12時間超える学習なんかの場合は、途中で保存する処理を作るか
既にある処理を使う必要性がある、Kerasには既にある
tensorflowの低レベルでやる場合は自分で書く必要性あるのかな
Pytorchはまだ触り程度で詳しくないけど、kerasと同じようなライブラリあるならそれ使えばいい
業務やサービスの場合はどうせAWSかGCP,Azure借りるだろ
TPUまで無料で使えるようになったから最強すぎるわ
ただ12時間超える学習なんかの場合は、途中で保存する処理を作るか
既にある処理を使う必要性がある、Kerasには既にある
tensorflowの低レベルでやる場合は自分で書く必要性あるのかな
Pytorchはまだ触り程度で詳しくないけど、kerasと同じようなライブラリあるならそれ使えばいい
業務やサービスの場合はどうせAWSかGCP,Azure借りるだろ
635デフォルトの名無しさん (ワッチョイ 9f23-S4i9)
2018/10/02(火) 19:43:42.88ID:+CsxoQN10 学習中に不明な原因で接続が切れてた時の絶望感
636デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/10/02(火) 20:06:47.65ID:Fw3dw3lVa sotaという言葉を知らなかったので調べてみてstate of the artの略で直訳すると最先端とかそんな意味だから何となく言いたいことは分かったけど機械学習分野での定義に当たるものが全然見つからない
sota達成とか誰がどうやって決めてるの?
sota達成とか誰がどうやって決めてるの?
637デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/02(火) 22:59:32.38ID:2AKCrptK0 >>636
sotaって論文で書いてる連中は
arxivなどのオープンアクセスな論文サイトに投稿されてるコンピューターサイエンスの論文で有用なのはほとんど全部読んでる
だからどれが最高水準かを知ってるから
その分野におけるsota近辺のモデルの論文の結果と比較してsota達成としている
っていうのが俺の認識
論文完璧に追ってる以外にもカンファレンスで情報収集してるってのもあるだろうけど
物理学なんかと違って、ML分野はオープンアクセスな論壇で発展してきたからこうなってるんだろうけど
その辺の事情を追えてない日本人には全くわからん状態なのも仕方ない
sotaって論文で書いてる連中は
arxivなどのオープンアクセスな論文サイトに投稿されてるコンピューターサイエンスの論文で有用なのはほとんど全部読んでる
だからどれが最高水準かを知ってるから
その分野におけるsota近辺のモデルの論文の結果と比較してsota達成としている
っていうのが俺の認識
論文完璧に追ってる以外にもカンファレンスで情報収集してるってのもあるだろうけど
物理学なんかと違って、ML分野はオープンアクセスな論壇で発展してきたからこうなってるんだろうけど
その辺の事情を追えてない日本人には全くわからん状態なのも仕方ない
638デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/03(水) 00:45:53.65ID:+7Euz2g60 あぁカンファで同時にsota報告が上がってたんだな
そりゃカンファで採択されるかされないかと
オープンアクセスサイトでの論文公開タイミングは、ものによってはちげーから
いくら先端追ってる連中でも被るのは仕方ない
・GAN的な双方向マルチ学習(自然言語で言うなら敵対的逆翻訳のしあいっこ?)
・特徴に時間間隔とポジション付与
・Attentionの構造改善
この3つが大体の今のトレンドだろ
全部組み合わせたのも半年以内に出てくるだろうけど
結局の所、事象における連続した時間情報の把握と
その状態における時間変化率の学習が上手く出来てないから汎用AIにはなれんだろう
ちゃんとした学者にも俺と似たような事言ってる人いて
脳構造の模倣による時間情報の学習を、哲学的な部分からやろうって言ってる人いるけどどうなるかな
そりゃカンファで採択されるかされないかと
オープンアクセスサイトでの論文公開タイミングは、ものによってはちげーから
いくら先端追ってる連中でも被るのは仕方ない
・GAN的な双方向マルチ学習(自然言語で言うなら敵対的逆翻訳のしあいっこ?)
・特徴に時間間隔とポジション付与
・Attentionの構造改善
この3つが大体の今のトレンドだろ
全部組み合わせたのも半年以内に出てくるだろうけど
結局の所、事象における連続した時間情報の把握と
その状態における時間変化率の学習が上手く出来てないから汎用AIにはなれんだろう
ちゃんとした学者にも俺と似たような事言ってる人いて
脳構造の模倣による時間情報の学習を、哲学的な部分からやろうって言ってる人いるけどどうなるかな
639デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 01:19:02.14ID:jfGK+xYpd 脳構造だからうまくいくわけではない。
640デフォルトの名無しさん (ワッチョイ 9f65-i+ik)
2018/10/03(水) 01:29:53.26ID:dkrkSoVO0 神経構造なんかは既に解明されてるけど
そうなるとしか分かっていない回路形成の発生学とか
関与しているらしいけど何してるのかいまいち分かっていないグリア細胞とか
こっちの方がモデリングをする上で重要だと思うけどね
今のMLでは生物の機能の一部を模擬してるだけに過ぎない
そうなるとしか分かっていない回路形成の発生学とか
関与しているらしいけど何してるのかいまいち分かっていないグリア細胞とか
こっちの方がモデリングをする上で重要だと思うけどね
今のMLでは生物の機能の一部を模擬してるだけに過ぎない
641デフォルトの名無しさん (ワッチョイ 37a5-VkMC)
2018/10/03(水) 05:14:23.46ID:qbq9gQbU0 脳の機能(笑)哲学(笑)
642デフォルトの名無しさん (ワッチョイ 971e-ZVm4)
2018/10/03(水) 07:10:02.33ID:1cI2REY30 哲学の成功は論理学と実証主義で完成したと思うよ
643デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 12:26:33.96ID:+58IDnbyd 脳モデルはあくまでNN、DL起案者が何をモデルとして数学モデル化したかであり、NN、DLは脳モデルそのものではない。
また、そもそも脳モデルが最適なモデルかどうかはまだ証明が存在しない。
たまたまDLがよい結果出たからそう言われてるだけ。
脳モデルが最適かどうかという前提を何も示さずに、研究者のなかに、『脳の伝達には〜があるから○○を追加したらこうなるはず』みたいな議論されているのを見ると、滑稽に思う。
また、そもそも脳モデルが最適なモデルかどうかはまだ証明が存在しない。
たまたまDLがよい結果出たからそう言われてるだけ。
脳モデルが最適かどうかという前提を何も示さずに、研究者のなかに、『脳の伝達には〜があるから○○を追加したらこうなるはず』みたいな議論されているのを見ると、滑稽に思う。
644デフォルトの名無しさん (ワッチョイ 57c3-aemA)
2018/10/03(水) 12:28:55.71ID:sAnPmpeI0 なぜ最適を求める?
645デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 12:30:34.07ID:+58IDnbyd よりよい結果が出たらそっちを採用するだけ。
それが脳モデルになるとは限らない
それが脳モデルになるとは限らない
646デフォルトの名無しさん (ワッチョイ 9f23-aemA)
2018/10/03(水) 12:31:35.36ID:in1HBOwn0647デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 12:32:37.09ID:+58IDnbyd 世にこれだけディープラーニングが広まったのは、脳モデルの説明による功績が大きいけどな
648デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/10/03(水) 12:35:57.50ID:d+kLgL6ia 人間の脳が超省エネで高速に学習して予測結果の出力できているのと比較すると現行モデルは脳と呼ぶにはには程遠いんだけど非理系メディアでは人間の脳を模倣しているなどと喧伝される
649デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 12:37:46.63ID:+58IDnbyd 世に広めるにはイメージが大事です。
ただ研究者はイメージで研究してはダメです。
ただ研究者はイメージで研究してはダメです。
650デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/03(水) 13:20:41.80ID:+7Euz2g60 CSなんて結局は計算能力との兼ね合いだからな
仮に完全に脳構造を模倣したモデルを組み上げたとしても
それがクソ重くて現行の計算資源で回らなけりゃクソだとしか評価されん
かといって脳構造の模倣や考察を放棄するのは適切じゃない
世界モデルもこっちよりだし、強化学習をやるためには避けられないだろう
問題はRNN,LSTMでは事象における連続した時間情報をあまり学習できてないってことだな
TransformerとUTは時間間隔をと位置情報を特徴に埋め込む事で
マルチヘッドセルフattentionにそれらを処理させているが
おそらくは完璧を求めると
階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み
なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある
これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう
計算力はどうせなんとかなるだろうし
誰かが気づけば、あと10数年で汎用AI完成するんじゃね
仮に完全に脳構造を模倣したモデルを組み上げたとしても
それがクソ重くて現行の計算資源で回らなけりゃクソだとしか評価されん
かといって脳構造の模倣や考察を放棄するのは適切じゃない
世界モデルもこっちよりだし、強化学習をやるためには避けられないだろう
問題はRNN,LSTMでは事象における連続した時間情報をあまり学習できてないってことだな
TransformerとUTは時間間隔をと位置情報を特徴に埋め込む事で
マルチヘッドセルフattentionにそれらを処理させているが
おそらくは完璧を求めると
階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み
なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある
これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう
計算力はどうせなんとかなるだろうし
誰かが気づけば、あと10数年で汎用AI完成するんじゃね
651デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/03(水) 13:29:51.05ID:+7Euz2g60 そもそも脳構造の哲学的推測における模倣はイメージじゃなくて
ただの論理的思考なんだけど
推測の過程において論理が飛躍しすぎてると
大抵の人は妄想だと判断して、考察を放棄する傾向があるからしょうがないわな
それが当たり前だもの
ただの論理的思考なんだけど
推測の過程において論理が飛躍しすぎてると
大抵の人は妄想だと判断して、考察を放棄する傾向があるからしょうがないわな
それが当たり前だもの
652デフォルトの名無しさん (アウウィフ FFdb-+W5L)
2018/10/03(水) 13:44:52.38ID:oOvr2XyQF653デフォルトの名無しさん (ワッチョイ 9f23-aemA)
2018/10/03(水) 14:55:39.60ID:in1HBOwn0 遺伝的アルゴリズムも名前が強そうだけど、中身はびっくりするレベルでしょぼいよね
654デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/10/03(水) 15:06:45.43ID:6o3Z2FT6a ニューラルネットワークなんて回帰を多層にしただけの超単純構造
655デフォルトの名無しさん (ワッチョイ 178a-S4i9)
2018/10/03(水) 15:13:09.66ID:sMpk7EKP0 >>653
はったり、生物の進化淘汰なんかどこにもない
はったり、生物の進化淘汰なんかどこにもない
656デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 17:49:41.29ID:+58IDnbyd 大事なことなので復唱します。
世に広めるにはイメージが大事です。
ただ研究者はイメージで研究してはダメです。
研究者の中には、脳モデルが最適かどうかという前提を何も示さずに、
『脳の伝達には〜があるから○○を追加したらこうなるはず』
みたいな議論されている方々がおりますが、根拠が薄く滑稽に思います。
世に広めるにはイメージが大事です。
ただ研究者はイメージで研究してはダメです。
研究者の中には、脳モデルが最適かどうかという前提を何も示さずに、
『脳の伝達には〜があるから○○を追加したらこうなるはず』
みたいな議論されている方々がおりますが、根拠が薄く滑稽に思います。
657デフォルトの名無しさん (ワッチョイ 17d2-ZVm4)
2018/10/03(水) 17:57:56.16ID:Oh5w9UQA0658デフォルトの名無しさん (アウアウウー Sadb-VGrh)
2018/10/03(水) 18:01:02.58ID:3Ieh8Fw3a 最適かどうかは完成物があれば評価できるんだからいいでしょ
そもそも分からないから研究して新しいモデルを作るわけで
最初から何が最適か知っている人がいてそれを論理的に説明できるのならばとっくにそれがスタンダードになっているはずだがそうはなっていないんだから最適など誰も知らないと考えるのが自然
そもそも分からないから研究して新しいモデルを作るわけで
最初から何が最適か知っている人がいてそれを論理的に説明できるのならばとっくにそれがスタンダードになっているはずだがそうはなっていないんだから最適など誰も知らないと考えるのが自然
659デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 18:05:20.45ID:+58IDnbyd つまりはまあ、最近の機械学習の論文なんて実績と経験則の積み上げ(帰納)によるものがほとんど。
より良きモデルからスタートしたモデルのアイデア(演繹)を求む
より良きモデルからスタートしたモデルのアイデア(演繹)を求む
660デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 18:10:02.59ID:+58IDnbyd アイデアと結果はあるのだかどうやって世に広めたらよい?
661デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/03(水) 19:13:50.43ID:+7Euz2g60 結果あるなら論文書いてarxivに投稿すりゃいいじゃん
高校生ですらMLの論文書いて投稿してたの昨年話題になったろ
高校生ですらMLの論文書いて投稿してたの昨年話題になったろ
662デフォルトの名無しさん (スッップ Sdbf-EJHQ)
2018/10/03(水) 19:49:21.65ID:+58IDnbyd とんくす
663デフォルトの名無しさん (ワッチョイ 778a-S4i9)
2018/10/03(水) 20:20:45.13ID:/V77wCG20 くず
664デフォルトの名無しさん (アウアウエー Sadf-jt0n)
2018/10/03(水) 20:46:41.49ID:YGFwuNMda665デフォルトの名無しさん (アウアウエー Sadf-jt0n)
2018/10/03(水) 20:48:04.20ID:YGFwuNMda666デフォルトの名無しさん (アウアウエー Sadf-jt0n)
2018/10/03(水) 20:49:11.35ID:YGFwuNMda667デフォルトの名無しさん (アウアウエー Sadf-jt0n)
2018/10/03(水) 20:50:21.87ID:YGFwuNMda668デフォルトの名無しさん (アウアウエー Sadf-jt0n)
2018/10/03(水) 20:52:26.70ID:YGFwuNMda669デフォルトの名無しさん (ワッチョイ bf8a-EJHQ)
2018/10/03(水) 21:20:45.12ID:nJKVxi/i0670デフォルトの名無しさん (ワッチョイ bf8a-EJHQ)
2018/10/03(水) 21:23:50.17ID:nJKVxi/i0 また一概には言えないかもしれないが、結果がローカルなものになりがち
671デフォルトの名無しさん (ワッチョイ 9fda-aQox)
2018/10/03(水) 21:59:40.34ID:+7Euz2g60 そもそも、ある程度iter重ねるか、少数サンプルで訓練した結果をプロットしつつ
新しいモデルを模索してくのが、今のMLにおける超大多数の手法であって
最初から論理的組み立て部分で有効性を実証してから研究始めるなんて手法は
明らかにメジャーではない
取り敢えず予測モデルで雑なコーディングして、訓練結果をプロットしてみてから
数理モデルの有効性に論理的説明をつけるって手法がメインなのは
有用な結果を残してる論文の内容からも分かる話
ほとんどだーれも論理的説明を完璧に付けてから研究開始なんざしてない
+58IDnbydの論理展開を適用すると、全員滑稽になっちまわないか?
そういう意味で、既に有効性の確認されている脳っていうクソ速いモデルを模倣するっていうのは
その時点である程度の論理的根拠を示しているとすら言える
新しいモデルを模索してくのが、今のMLにおける超大多数の手法であって
最初から論理的組み立て部分で有効性を実証してから研究始めるなんて手法は
明らかにメジャーではない
取り敢えず予測モデルで雑なコーディングして、訓練結果をプロットしてみてから
数理モデルの有効性に論理的説明をつけるって手法がメインなのは
有用な結果を残してる論文の内容からも分かる話
ほとんどだーれも論理的説明を完璧に付けてから研究開始なんざしてない
+58IDnbydの論理展開を適用すると、全員滑稽になっちまわないか?
そういう意味で、既に有効性の確認されている脳っていうクソ速いモデルを模倣するっていうのは
その時点である程度の論理的根拠を示しているとすら言える
672デフォルトの名無しさん (ワッチョイ bf8a-EJHQ)
2018/10/03(水) 22:50:21.46ID:nJKVxi/i0 >>671
別にメジャーじゃなくてよい
別にメジャーじゃなくてよい
673デフォルトの名無しさん (スッップ Sdbf-yIO0)
2018/10/03(水) 23:45:59.60ID:23QaCALXd pytorchのdevcon見たけど、想像以上に大企業がサポートしてて驚いたわ
674デフォルトの名無しさん (アウアウエー Sa6a-yUUL)
2018/10/04(木) 02:41:08.39ID:pZO9AOgra 見てみたけど、グローバルなAI 企業オールスターって感じか。
もっとも作ってるのが FBだから別に不思議でもないけど
もっとも作ってるのが FBだから別に不思議でもないけど
675デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
2018/10/04(木) 08:08:02.24ID:WxW/ujNfa676デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
2018/10/04(木) 08:09:50.53ID:WxW/ujNfa677デフォルトの名無しさん (ワッチョイ ba23-vBoO)
2018/10/04(木) 09:59:48.56ID:s8ye5l4L0 >>674
chainerは消えゆく運命だな
chainerは消えゆく運命だな
678デフォルトの名無しさん (アウアウエー Sa6a-TFgJ)
2018/10/04(木) 10:14:52.99ID:AR+RrRuFa 好きなんだがなあchainer
679デフォルトの名無しさん (シャチーク 0Cde-XM+q)
2018/10/04(木) 12:34:16.99ID:zfP46g3nC Google Colaboratoryで
!apt -y install libcusparse8.0 libnvrtc8.0 libnvtoolsext1
ができなくなったのだがどうしたらいいのか
!apt -y install libcusparse8.0 libnvrtc8.0 libnvtoolsext1
ができなくなったのだがどうしたらいいのか
680デフォルトの名無しさん (JP 0H9a-2jv+)
2018/10/04(木) 16:03:33.77ID:ux982JKKH 演繹厨うぜえ
681デフォルトの名無しさん (ペラペラ SD5a-DeRO)
2018/10/04(木) 16:06:35.89ID:U2kQDcc/D >>677-678
tensorflow vs pytorch の構図が完全できちゃったんで他のフレームワークはどれも厳しいけど、
tf の独占を阻止できたのは良かったと思う。 tf が pytorch を滅茶意識してて笑えるw
tensorflow vs pytorch の構図が完全できちゃったんで他のフレームワークはどれも厳しいけど、
tf の独占を阻止できたのは良かったと思う。 tf が pytorch を滅茶意識してて笑えるw
682デフォルトの名無しさん (ワッチョイ f41e-Qng4)
2018/10/04(木) 21:40:33.09ID:OD7dB/YO0 vs?
683デフォルトの名無しさん (フリッテル MM5e-DXVT)
2018/10/04(木) 22:39:26.90ID:ktsy0FKAM visual studio
684デフォルトの名無しさん (スッップ Sd70-qFZH)
2018/10/04(木) 22:49:09.65ID:Y2bv5t2ed >>678
良くも悪くも学生の趣味の域をこえてないのが残念。こえる気もないのかもしれんが
良くも悪くも学生の趣味の域をこえてないのが残念。こえる気もないのかもしれんが
685デフォルトの名無しさん (スッップ Sd70-qFZH)
2018/10/04(木) 23:03:51.17ID:Y2bv5t2ed >>681
2.0 はもろにそうだな
2.0 はもろにそうだな
686デフォルトの名無しさん (ワッチョイ 01b3-hMf/)
2018/10/05(金) 08:18:57.73ID:cSK7i/nT0 NVIDIA RTX 2080 Ti vs 2080 vs 1080 Ti vs Titan V, TensorFlow Performance with CUDA 10.0
https://www.pugetsystems.com/labs/hpc/NVIDIA-RTX-2080-Ti-vs-2080-vs-1080-Ti-vs-Titan-V-TensorFlow-Performance-with-CUDA-10-0-1247/
1080Tiと2080Ti比べるとFP32は1.35倍くらいでゲームのベンチ(レイトレコア・テンサーコア使わない場合)と同じ傾向でガッカリ
FP16ならさすがに速いね
https://i.imgur.com/Dq30VnF.jpg
https://i.imgur.com/2TIiMYA.jpg
https://www.pugetsystems.com/labs/hpc/NVIDIA-RTX-2080-Ti-vs-2080-vs-1080-Ti-vs-Titan-V-TensorFlow-Performance-with-CUDA-10-0-1247/
1080Tiと2080Ti比べるとFP32は1.35倍くらいでゲームのベンチ(レイトレコア・テンサーコア使わない場合)と同じ傾向でガッカリ
FP16ならさすがに速いね
https://i.imgur.com/Dq30VnF.jpg
https://i.imgur.com/2TIiMYA.jpg
687デフォルトの名無しさん (アウアウエー Sa6a-TFgJ)
2018/10/05(金) 10:48:01.81ID:kmGDPqXya >>684
マルチGPUの分散学習はChainerが速いらしいから頑張ってほしい
マルチGPUの分散学習はChainerが速いらしいから頑張ってほしい
688デフォルトの名無しさん (スフッ Sd70-rfKm)
2018/10/05(金) 10:49:42.25ID:df1WW8w8d 頑張ります
689デフォルトの名無しさん (ワッチョイ f18a-Qng4)
2018/10/05(金) 14:37:40.34ID:gTNPCIlY0 えいえいおー!
690デフォルトの名無しさん (アウアウエー Sa6a-DeRO)
2018/10/06(土) 11:03:04.25ID:BbA86mG7a >>687
TPUも作れるといいね(棒)
TPUも作れるといいね(棒)
691デフォルトの名無しさん (ワッチョイ d42c-3sDw)
2018/10/06(土) 11:16:45.87ID:KmIbUzui0 NHK教育を見て56088倍賢く三連休
http://nhk2.5ch.net/test/read.cgi/liveetv/1538780245/
http://nhk2.5ch.net/test/read.cgi/liveetv/1538780245/
692デフォルトの名無しさん (アウアウエー Sa6a-DeRO)
2018/10/06(土) 11:26:12.82ID:BbA86mG7a >>686
もう CUDA 10.0 かよ…
もう CUDA 10.0 かよ…
693デフォルトの名無しさん (ササクッテロレ Sp10-DPST)
2018/10/06(土) 15:40:12.76ID:638PEvttp 会社の技術発表で機械学習をやってみたいんだけど、
例えば、複数ユーザーのツイートを元に学習したアカウントで人間っぽく自動ツイートする、みたいなことって可能ですかね?
使用したことある言語はjavaくらいで、Pythonとかは始めてなんですけど
例えば、複数ユーザーのツイートを元に学習したアカウントで人間っぽく自動ツイートする、みたいなことって可能ですかね?
使用したことある言語はjavaくらいで、Pythonとかは始めてなんですけど
694デフォルトの名無しさん (ワッチョイ 5123-HYg0)
2018/10/06(土) 15:55:25.36ID:XsiX8sgh0 可能
695デフォルトの名無しさん (ササクッテロレ Sp10-DPST)
2018/10/06(土) 16:33:50.86ID:638PEvttp696デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
2018/10/06(土) 20:05:00.50ID:higGMxdEa697デフォルトの名無しさん (ワッチョイ 6667-pE0U)
2018/10/06(土) 20:07:01.15ID:ID0TniNM0 日立なんかは一年目に技術発表会やると聞いた。上の人がどこの人か知らんけど
698デフォルトの名無しさん (ササクッテロレ Sp10-DPST)
2018/10/06(土) 20:27:28.89ID:638PEvttp699デフォルトの名無しさん (ワッチョイ 4e8a-hckX)
2018/10/06(土) 23:01:16.24ID:b45hR0RV0700デフォルトの名無しさん (スプッッ Sd70-qFZH)
2018/10/07(日) 00:40:28.21ID:ZjjgaVC7d 日本の会社はぬるくて羨ましいなw
701デフォルトの名無しさん (アウアウウー Sa83-fb/i)
2018/10/07(日) 00:41:29.35ID:frJT0RqLa Twitterはツイートした時点でその内容を誰がどう使ってもいいよ、っていう規約だったはずだから権利侵害とかの問題はないだろう
702デフォルトの名無しさん (ワッチョイ 1cd2-qZzK)
2018/10/07(日) 00:47:51.09ID:ocS+GJlU0 独学で機械学習やってるけど、おっさんの腐った脳味噌じゃもうダメだな
大学入り直すか
大学入り直すか
703デフォルトの名無しさん (ブーイモ MM5a-HYg0)
2018/10/07(日) 00:53:53.77ID:o9Iuox3HM 2chの方が著作権移動が厳しい
704デフォルトの名無しさん (ワッチョイ 6667-pE0U)
2018/10/07(日) 01:05:46.09ID:pVH0KbtN0 CS系の大学の講座取ってみたい
705デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
2018/10/07(日) 05:08:20.65ID:xO6NYQqFa706デフォルトの名無しさん (ワッチョイ 74dc-XM+q)
2018/10/07(日) 08:15:30.42ID:aHxIGRZV0 そもそも、機械学習で生成されたデータが
元にしたデータの著作権侵害になるという法律屋の指摘に違和感を感じる
元にしたデータの著作権侵害になるという法律屋の指摘に違和感を感じる
707デフォルトの名無しさん (アウアウウー Sa83-fb/i)
2018/10/07(日) 10:47:04.83ID:uEzOl35Aa 日本は法律面で先進国としては非常に珍しい機械学習パラダイスなんだぞ
進化する機械学習パラダイス 〜改正著作権法が日本のAI開発をさらに加速する〜
https://storialaw.jp/blog/4936
進化する機械学習パラダイス 〜改正著作権法が日本のAI開発をさらに加速する〜
https://storialaw.jp/blog/4936
708デフォルトの名無しさん (オッペケ Sr10-TFgJ)
2018/10/07(日) 11:49:44.59ID:KWtYBJ31r 個人情報保護とかで医療関連はデータ集めるのが大変だそうな
709デフォルトの名無しさん (アウアウウー Sab5-TgND)
2018/10/07(日) 13:26:13.70ID:cOS3eGIea その辺りは医療機関自体がデータサイエンティスト雇うか業務提携するしかないだろう
710デフォルトの名無しさん (ワッチョイ 6667-pE0U)
2018/10/07(日) 14:08:13.17ID:pVH0KbtN0 ワイのレントゲン写真使うなら肖像権高うつきまっせ
711デフォルトの名無しさん (アウアウウー Sab5-TgND)
2018/10/07(日) 14:14:45.59ID:cOS3eGIea >>707
つまりこういうことだな
現在:「学習用データ収集→諸々の処理→学習モデル作成」を個人や自社だけで完結させる場合は商用・非商用問わず著作権者の許可を取る必要なし
2019/1/1以降:収集した学習用データを他人・他社に公開・販売するのも著作権者の許可を取る必要なし
※もちろんデータ解析という本来の目的外に使用されることが明らかなら違法なので、漫画データの学習のためと謳って漫画スキャン画像を公開するとかはNG
ということで、明らかに悪用するような使い方でない限りデータ解析において著作権を気にする必要はない
つまりこういうことだな
現在:「学習用データ収集→諸々の処理→学習モデル作成」を個人や自社だけで完結させる場合は商用・非商用問わず著作権者の許可を取る必要なし
2019/1/1以降:収集した学習用データを他人・他社に公開・販売するのも著作権者の許可を取る必要なし
※もちろんデータ解析という本来の目的外に使用されることが明らかなら違法なので、漫画データの学習のためと謳って漫画スキャン画像を公開するとかはNG
ということで、明らかに悪用するような使い方でない限りデータ解析において著作権を気にする必要はない
712デフォルトの名無しさん (ワッチョイ 1e9f-PkCJ)
2018/10/07(日) 14:39:39.25ID:oKeY0xEK0713デフォルトの名無しさん (ワッチョイ f18a-Qng4)
2018/10/07(日) 14:57:55.33ID:pk8THtng0 著作権先進国(笑)
714デフォルトの名無しさん (ワッチョイ 671e-XM+q)
2018/10/07(日) 17:38:31.02ID:QNVjJiYJ0 医療用プログラムは医療用機器つくってた会社しかつくれないように規制されてるから入れん
認可とるのも大金かかるし
認可とるのも大金かかるし
715デフォルトの名無しさん (ワッチョイ 0e5d-bfG9)
2018/10/07(日) 20:31:31.21ID:JgS2v7in0 GANのdiscriminatorの次元減らしていくのに全結合無い方がいい理由ってなんで?
716デフォルトの名無しさん (ワッチョイ 0e5d-bfG9)
2018/10/07(日) 20:35:00.63ID:JgS2v7in0 DCGANの話です
717デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
2018/10/07(日) 20:45:05.75ID:RqIyj36Sa718デフォルトの名無しさん (ワッチョイ d980-A6IM)
2018/10/07(日) 21:24:55.65ID:mIq+f5AO0 https://arxiv.org/pdf/1312.4400.pdf
> 3.2 Global Average Pooling
> ・・・
> However, the fully connected layers are prone to overfitting, thus hampering the generalization ability
> of the overall network. Dropout is proposed by Hinton et al. [5] as a regularizer which randomly
> sets half of the activations to the fully connected layers to zero during training. It has improved the
> generalization ability and largely prevents overfitting [4].
> In this paper, we propose another strategy called global average pooling to replace the traditional
> fully connected layers in CNN.
> 3.2 Global Average Pooling
> ・・・
> However, the fully connected layers are prone to overfitting, thus hampering the generalization ability
> of the overall network. Dropout is proposed by Hinton et al. [5] as a regularizer which randomly
> sets half of the activations to the fully connected layers to zero during training. It has improved the
> generalization ability and largely prevents overfitting [4].
> In this paper, we propose another strategy called global average pooling to replace the traditional
> fully connected layers in CNN.
719デフォルトの名無しさん (アウアウカー Sa0a-bfG9)
2018/10/07(日) 21:52:22.17ID:7A10mDJxa720デフォルトの名無しさん (アウウィフ FF3a-HYg0)
2018/10/08(月) 11:31:11.61ID:+5qyKWRvF721デフォルトの名無しさん (ワッチョイ 671e-XM+q)
2018/10/08(月) 11:41:22.65ID:99LuQJTy0 なんと!あのアナコンダが!
っていうほどのもんじゃないな
っていうほどのもんじゃないな
722デフォルトの名無しさん (アウアウエー Sa6a-TFgJ)
2018/10/08(月) 11:44:43.55ID:tjiQ7o9Aa723デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
2018/10/08(月) 13:07:36.75ID:DvqFh1SLa724デフォルトの名無しさん (アウアウエー Sa6a-TFgJ)
2018/10/08(月) 14:02:39.08ID:tjiQ7o9Aa >>723
その再確認を既に退院した人含めて一人一人にするのは結構大変なのでは
その再確認を既に退院した人含めて一人一人にするのは結構大変なのでは
725デフォルトの名無しさん (ブーイモ MMed-fU7r)
2018/10/08(月) 14:31:20.58ID:4tTMXMXFM arxivのML・DL論文読んでて、日本人の論文少ないよね
726デフォルトの名無しさん (ワッチョイ 048a-Qng4)
2018/10/08(月) 15:01:42.20ID:aB+juQlj0 意味不明な日本語を使う奴に言われてもw
727デフォルトの名無しさん (ワッチョイ 951d-CKq4)
2018/10/08(月) 21:08:44.54ID:ND0ntmkA0 英語でわざわざ論文書くのがめんどくさい
728デフォルトの名無しさん (ワッチョイ 3aaf-2Yci)
2018/10/08(月) 22:37:44.37ID:6UIbz9ua0 外人嫌いだし
729デフォルトの名無しさん (アウアウエー Sa6a-VI3z)
2018/10/09(火) 08:09:06.14ID:CcNKGFP6a■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 習政権、高市首相への態度硬化 台湾有事発言で連日非難 中国 ★11 [ぐれ★]
- 国内ホテル、既にキャンセルも 訪日客関連業界、事態見守る ★3 [蚤の市★]
- 日本損失1.7兆円に修正 中国渡航自粛の影響試算 [蚤の市★]
- 「どうしようもない」 ため息つくアジアの玄関口 中国の訪日自粛で−福岡市 [蚤の市★]
- 「アベノミクス」で投資対象と化したマンション ローンの低金利続き「年収の12倍」借りる20代出現 [蚤の市★]
- 橋下徹氏 外務省幹部の訪中受け「口だけ番長」へ痛烈指摘 「喧嘩は日本の完敗…なんとかっこ悪い日本か」 [冬月記者★]
- 台湾「高市さんが台湾人の悲願を叶えてくれた!」これじゃ高市さん発言撤回できないぢゃん😰 [523957489]
- 【実況】博衣こよりのえちえち朝こよ🧪
- 高市周辺、さすがに焦り始めるww「小さな火種が火事になりかけている。早く鎮火しなくてはいけない」 [271912485]
- 【高市悲報】神谷「部下が間違えて脱炭素を脱酸素て書いたんですよ😡それ読んだだけなのに挙げ足とるな!小学生か!」 [359965264]
- 【超悲報】中国への武力行使、世論調査で「賛成」「どちらかといえば賛成」48.8% 「反対」「どちらかといえば反対」の44.2%を上回る [314039747]
- 中国「高市が頭を下げて謝罪しない限り、絶対に許さない」 [329329848]
