探検
【統計分析】機械学習・データマイニング26
■ このスレッドは過去ログ倉庫に格納されています
1デフォルトの名無しさん (ワッチョイ efda-zBa2 [223.217.165.150])
2019/09/15(日) 09:23:06.34ID:bjsiNRs40機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
Machine Learningを用いた論文一覧2018
https://shiropen.com/seamless/machine-learning/2018
2017年のディープラーニング論文100選
https://qiita.com/sakaiakira/items/f225b670bea6d851c7ea
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング23
https://mevius.5ch.net/test/read.cgi/tech/1551352040/
-
【統計分析】機械学習・データマイニング25
https://mevius.5ch.net/test/read.cgi/tech/1561568018/
【統計分析】機械学習・データマイニング24
https://mevius.5ch.net/test/read.cgi/tech/1556674785/
-
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:----: EXT was configured
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:: EXT was configured
161デフォルトの名無しさん (ワッチョイ 9300-BjtM [221.118.182.153])
2019/10/09(水) 16:41:52.12ID:IFGahd8r0 Geforce一択?
162デフォルトの名無しさん (ワッチョイ 139c-2YwE [61.125.210.189])
2019/10/09(水) 18:03:33.95ID:joEVXQiz0 巷で売れてるkaggle本買いました
これから勉強します
これから勉強します
163デフォルトの名無しさん (トンモー MM8d-2TCp [210.142.95.200])
2019/10/09(水) 19:06:25.13ID:/Xo+Y8M3M 統計学の勉強を本気で始めたら
恐ろしく難しいということがわかってきた
どうしたらいい?
恐ろしく難しいということがわかってきた
どうしたらいい?
164デフォルトの名無しさん (ワッチョイ 8be3-G1PU [153.165.9.107])
2019/10/09(水) 19:07:25.32ID:qJaHnW7l0 参考書を変える
165デフォルトの名無しさん (オッペケ Src5-SxUP [126.208.204.78])
2019/10/09(水) 19:11:04.90ID:fonAqmctr >>161
amdも意外と使えるらしいけど、情報ないし疲れるよ。動かないとき常にうたがっちやうしね
amdも意外と使えるらしいけど、情報ないし疲れるよ。動かないとき常にうたがっちやうしね
166デフォルトの名無しさん (ワンミングク MMd3-y1nD [153.234.115.46])
2019/10/09(水) 19:19:32.23ID:4X2jyJQLM 古典統計学とベイズ統計学をちゃんと学びたい
>>166
統計論と確率論は違うものですか?
統計論と確率論は違うものですか?
168デフォルトの名無しさん (アウアウカー Sa55-UPw3 [182.251.143.167])
2019/10/09(水) 20:14:54.29ID:fTI0icewa 統計学の中で使われる道具の1つが確率論
169デフォルトの名無しさん (ワッチョイ 8901-o6K/ [126.25.129.72])
2019/10/09(水) 20:23:04.27ID:ZvOECUeE0170デフォルトの名無しさん (ワッチョイ 5377-xqA2 [115.38.59.80])
2019/10/09(水) 21:11:35.20ID:MK+5GX/v0 古典統計とは集合論と位相空間論から測度論に発展して確率論との関係性のあたり?
171デフォルトの名無しさん (ワッチョイ 93f1-y1nD [157.107.8.150])
2019/10/09(水) 22:40:50.59ID:+iZUlLJa0 わかんない
172デフォルトの名無しさん (ワッチョイ 0bda-jw9j [121.118.80.163])
2019/10/09(水) 22:44:05.44ID:zMnGtdTv0 アホ
173デフォルトの名無しさん (アウアウエー Sae3-G1PU [111.239.59.242])
2019/10/09(水) 22:58:19.23ID:Qjd49VQKa 現実問題として、測度論まで必要になることはあるかなあ?
まずは連続量ではなくて離散量での理解が先かと思われる
それならそんなに難しくないでしょ
まずは連続量ではなくて離散量での理解が先かと思われる
それならそんなに難しくないでしょ
174デフォルトの名無しさん (ワッチョイ 9bda-+sb9 [223.217.165.240])
2019/10/10(木) 00:11:01.13ID:O5ET7Lyz0 規定関数の概念と関数のノルムさえ理解していればいらん。
175デフォルトの名無しさん (ワッチョイ 9bda-+sb9 [223.217.165.240])
2019/10/10(木) 00:11:57.40ID:O5ET7Lyz0 逆にそれがわかってない研究者はくそ
176デフォルトの名無しさん (ワッチョイ 9bda-+sb9 [223.217.165.240])
2019/10/10(木) 00:14:30.11ID:O5ET7Lyz0 それ=『規定関数の概念と関数のノルム』な。
177デフォルトの名無しさん (ワッチョイ 9bda-+sb9 [223.217.165.240])
2019/10/10(木) 00:17:00.40ID:O5ET7Lyz0 わら。×規定
自分がわかってませんでした。
自分がわかってませんでした。
178デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.200])
2019/10/10(木) 02:31:31.78ID:eF+ihzDEM グレブナー基底は重要だな
179デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.224.230])
2019/10/10(木) 06:52:08.55ID:H/x/U9NKM180デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.224.230])
2019/10/10(木) 06:53:03.85ID:H/x/U9NKM >>169
何故そこでcolabが出さない
何故そこでcolabが出さない
181デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.153.117])
2019/10/10(木) 10:19:46.41ID:xGOoNgUAa 統計学を理解できていないのに理解したと思い込んだ人はこういう頓珍漢なことを平気で言い出す
@Inetgate:
@usukutilife @u874072e 一般的な統計処理において、標本数が30を超える場合には正規分布を仮定できますが、
えん さんが調べた結果だと全然正規分布になってないので、食べログの数値操作疑惑、真っ黒じゃねーかと。
https://twitter.com/Inetgate/status/1181488204068749312
https://twitter.com/5chan_nel (5ch newer account)
@Inetgate:
@usukutilife @u874072e 一般的な統計処理において、標本数が30を超える場合には正規分布を仮定できますが、
えん さんが調べた結果だと全然正規分布になってないので、食べログの数値操作疑惑、真っ黒じゃねーかと。
https://twitter.com/Inetgate/status/1181488204068749312
https://twitter.com/5chan_nel (5ch newer account)
182デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.224.230])
2019/10/10(木) 10:23:07.08ID:H/x/U9NKM 母集団の分布が正規分布に従うと"仮定"すれば、間違ってない意見だな
仮定すれば
仮定すれば
183デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.224.230])
2019/10/10(木) 10:25:56.74ID:H/x/U9NKM って、もとのグラフをみたらbin数がやばかった・・・
184デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.59.242])
2019/10/10(木) 14:07:25.58ID:9SEfnsqfa 標本抽出の仕方がランダムサンプリングで
母集団が正規分布の時だけに成り立つことを言っているな
母集団が正規分布の時だけに成り立つことを言っているな
185デフォルトの名無しさん (ワッチョイ 0da5-X53N [42.127.86.111])
2019/10/10(木) 18:30:07.85ID:7gKn5Xz20 競馬あてて見たいんだけど特徴量として前5走を使いたいんだけどどんな実装にすればいいのかな
どなたかヒントいただけないでしょうか
どなたかヒントいただけないでしょうか
186デフォルトの名無しさん (ワイーワ2 FF93-1wBF [103.5.142.122])
2019/10/10(木) 18:50:01.66ID:i+8+28k+F 前走の結果より血統でやった方が良いって先輩は言ってた
187デフォルトの名無しさん (ワッチョイ e377-vt6R [115.38.57.104])
2019/10/10(木) 18:56:00.12ID:cL0M7hVK0 入力で与えるのが出馬一覧とかで順番の意味を無くしたいならPointNetとかの構造を真似したりすればいいんじゃない
188デフォルトの名無しさん (ワッチョイ 9501-o74w [126.25.129.72])
2019/10/10(木) 21:27:00.23ID:aZnaY5Is0189デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.56.45])
2019/10/10(木) 23:11:06.33ID:bdrwblpoa >>185
ググればソースコード付きでいろいろ出てくるが
ググればソースコード付きでいろいろ出てくるが
190デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/11(金) 08:18:38.76ID:mCGV3tUv0 >>184
中心極限定理の話しで
標本数を30にした平均値の分布は
元の分布に関係なく正規分布とみなせるって事だよな
食べログの分布もその分布から標本を30取り出して
平均値を求める操作を10000回繰り返して
平均値の分布を描くと正規分布に近くなるはず
中心極限定理の話しで
標本数を30にした平均値の分布は
元の分布に関係なく正規分布とみなせるって事だよな
食べログの分布もその分布から標本を30取り出して
平均値を求める操作を10000回繰り返して
平均値の分布を描くと正規分布に近くなるはず
191デフォルトの名無しさん (ワッチョイ 0da5-X53N [42.127.86.111])
2019/10/11(金) 11:53:47.65ID:BrwAZKhG0192デフォルトの名無しさん (ワイーワ2 FF93-1wBF [103.5.142.233])
2019/10/11(金) 11:58:01.09ID:hkXt1GtmF 重量ハンデは?
193デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.81])
2019/10/11(金) 14:41:23.78ID:uWNk0GcMM アルバイトでデータ解析やってる人間の意見としては、
とにかく役立ちそうな特徴量を選択せずにぶち込めるだけぶち込んで、
一度xgbかcgbを回してみればいいんじゃない
そうすれば重要な特徴量が何か抽出できるでしょ
話はそれからよ
勝ち馬をよく当てる人が何を大切にしているか調べることからはじめるべき
とにかく役立ちそうな特徴量を選択せずにぶち込めるだけぶち込んで、
一度xgbかcgbを回してみればいいんじゃない
そうすれば重要な特徴量が何か抽出できるでしょ
話はそれからよ
勝ち馬をよく当てる人が何を大切にしているか調べることからはじめるべき
194デフォルトの名無しさん (ワッチョイ 7dda-C28+ [114.187.197.203])
2019/10/12(土) 10:11:52.93ID:UGc1lgsI0 馬を株の銘柄に置き換えてリターンとリスク(分散)を元に
共分散使って有効フロンティアの曲線を引いて
無差別曲線と接する部分の比を見てパーセンテージの高い順に馬を買うってのは?
共分散使って有効フロンティアの曲線を引いて
無差別曲線と接する部分の比を見てパーセンテージの高い順に馬を買うってのは?
195デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 00:20:47.58ID:kaSZg9r20 >>184
すでに指摘されているが、母集団の分布は正規分布である必要はない
>>190
中心極限定理の話(前半の話)はそうだけども、後半の部分は何が言いたいのかよく分からない
食べログの評点は一人当たり整数値の1~5を付けられる(ある店舗における点数分布をAとする)
各店舗は添付ごとにN人の評価の平均を平均点として算出する(各店舗の平均点分布をBとし、これが話題となっている分布)
Aの採点を行うのが一般人であると仮定すると、各店舗は同一の母集団確率分布に従うものと仮定でき、各店舗の確率変数X1, X2, …, XNは同一の母集団確率分布からのランダムサンプルと考えられる
大数の法則により、標本平均(分布Bのこと)は母集団の平均に近づき正規分布になる
標本数30以上というのはNが30以上ということで、この部分は残念ながら自明ではない
ある焼肉屋の評価は67件から構成されているが、別の焼肉屋は2件となっている
つまり最大限「食べログ」を擁護するのであれば、標本数が30以上ではないため前提条件が間違っている、ということだろうか
すでに指摘されているが、母集団の分布は正規分布である必要はない
>>190
中心極限定理の話(前半の話)はそうだけども、後半の部分は何が言いたいのかよく分からない
食べログの評点は一人当たり整数値の1~5を付けられる(ある店舗における点数分布をAとする)
各店舗は添付ごとにN人の評価の平均を平均点として算出する(各店舗の平均点分布をBとし、これが話題となっている分布)
Aの採点を行うのが一般人であると仮定すると、各店舗は同一の母集団確率分布に従うものと仮定でき、各店舗の確率変数X1, X2, …, XNは同一の母集団確率分布からのランダムサンプルと考えられる
大数の法則により、標本平均(分布Bのこと)は母集団の平均に近づき正規分布になる
標本数30以上というのはNが30以上ということで、この部分は残念ながら自明ではない
ある焼肉屋の評価は67件から構成されているが、別の焼肉屋は2件となっている
つまり最大限「食べログ」を擁護するのであれば、標本数が30以上ではないため前提条件が間違っている、ということだろうか
196デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.152.98])
2019/10/13(日) 00:57:27.47ID:0ePwtCDKa 各店の平均化する前の採点が同一母集団に従うという仮定に無理がありすぎる
例えばラーメン屋とスイーツ店の採点者が同じ傾向の採点するなんて仮定は不自然
例えばラーメン屋とスイーツ店の採点者が同じ傾向の採点するなんて仮定は不自然
197デフォルトの名無しさん (ワッチョイ 653c-3Hkb [118.240.95.156])
2019/10/13(日) 00:59:42.54ID:kaSZg9r20198デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.128.168])
2019/10/13(日) 06:54:46.01ID:ObLeezZqa >>159
Juliaでしょう。
Juliaでしょう。
199デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.128.168])
2019/10/13(日) 06:56:55.49ID:ObLeezZqa >>160
Flux
Flux
200デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 07:21:13.99ID:Fxu1r5BT0 >>195
大数の法則は標本数を増やすと標本平均が母平均に近づくということ
中心極限定理は平均値の分布に関する定理
食べログの評価の数が30になった時点で平均値を計算して
一度リセットするのを繰り返す
その平均値の分布は正規分布に近づく
今の評価の分布がその店に行く人の評価の分布を表している
のであれば今の評価分布から30標本を取って平均値を求める
操作を復元抽出で繰り返しても同じような結果になるだろう
大数の法則は標本数を増やすと標本平均が母平均に近づくということ
中心極限定理は平均値の分布に関する定理
食べログの評価の数が30になった時点で平均値を計算して
一度リセットするのを繰り返す
その平均値の分布は正規分布に近づく
今の評価の分布がその店に行く人の評価の分布を表している
のであれば今の評価分布から30標本を取って平均値を求める
操作を復元抽出で繰り返しても同じような結果になるだろう
201デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 07:23:54.12ID:Fxu1r5BT0 ある店の評価分布は標本数が多くなっても正規分布になるとは言えない
分散が広くなるのはその店のサービスや品質が安定していない事が原因になりうる
その店の特徴が分布に反映される
同様に店を評価する側の特徴も反映されるだろう
分散が広くなるのはその店のサービスや品質が安定していない事が原因になりうる
その店の特徴が分布に反映される
同様に店を評価する側の特徴も反映されるだろう
202デフォルトの名無しさん (ブーイモ MM89-ToAo [202.214.125.165])
2019/10/13(日) 07:58:04.98ID:S6cUkNQoM 深層学習の凄いことのひとつは特徴量を人が設計する必要がない、と本とかに書いてありますが、どう理解すればいいのか分からず教えてください!
ここでいう深層学習とはニューラルネットのことですか?(線形回帰やSVMと違って説明変数を人間が決めてないから? )
ここでいう深層学習とはニューラルネットのことですか?(線形回帰やSVMと違って説明変数を人間が決めてないから? )
203デフォルトの名無しさん (ワッチョイ 8302-o74w [101.142.8.160])
2019/10/13(日) 08:07:52.14ID:A69S9ntC0 レビューを投稿する行動を取る時点で母集団にサンプルバイアス
204デフォルトの名無しさん (ワッチョイ 653c-3Hkb [118.240.95.156])
2019/10/13(日) 08:55:43.76ID:kaSZg9r20 >>201
言ってることの一つ一つは正しいことは理解できるんだけど、何が言いたいのか理解できないんだ
食べログが評価を操作しているかどうか、は今説明してくれた事を駆使すれば判別できるんだろうか?
あるいは、Twitterの書き込みのおかしさ、は今説明してくれた事を駆使すれば、ココがおかしいと指摘されるんだろうか
言ってることの一つ一つは正しいことは理解できるんだけど、何が言いたいのか理解できないんだ
食べログが評価を操作しているかどうか、は今説明してくれた事を駆使すれば判別できるんだろうか?
あるいは、Twitterの書き込みのおかしさ、は今説明してくれた事を駆使すれば、ココがおかしいと指摘されるんだろうか
205デフォルトの名無しさん (アウアウカー Sa51-vt6R [182.251.195.232])
2019/10/13(日) 09:26:19.57ID:vNAU+AUMa >>201
各店舗の分散は各店舗の分布には影響しても全店舗の平均値の分布には影響しないでしょ
各店舗の分散は各店舗の分布には影響しても全店舗の平均値の分布には影響しないでしょ
206デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.154.80])
2019/10/13(日) 10:08:21.52ID:uKg8mtfTa 中心極限定理はあくまで「同一の母集団から得た独立な確率変数であれば、十分な数の平均値を集めたものの分布が正規分布に近似できる」というもの
全店舗の採点者が同一の基準に従う採点を行うという前提が成り立たなければ成立しない定理
全店舗の採点者が同一の基準に従う採点を行うという前提が成り立たなければ成立しない定理
207デフォルトの名無しさん (ワッチョイ 653c-3Hkb [118.240.95.156])
2019/10/13(日) 10:56:42.24ID:kaSZg9r20 >>206
個々の採点者が同じ基準でないのに中心極限定理を持ち出しているのがおかしいと主張しているわけか、なるほど
同じ基準ではないにしろ、少し幅をつけてみよう
個々の採点者はある得点を中心に正規分布で配点する、もしくは一様分布で採点する、あるいは同じ点数しかつけないものとする
正規分布で採点する者は、正規分布の合成が正規分布になることから、平均値の分布もまた正規分布
一様分布で採点する者は、分布関数の底上げにはなるが平均値には影響を与えない
同じ点数しかつけない者も、平均値そのものをずらす事にはなるが正規分布の形は歪めない
つまるところ上記の前提が成り立つ場合には、平均値の分布は厳密に正規分布になる
毎回1点で、たまに4点をつけるような人が大量にいないと、この評点と言う平均値分布を正規分布から歪めるのは難しいように思う
個々の採点者が同じ基準でないのに中心極限定理を持ち出しているのがおかしいと主張しているわけか、なるほど
同じ基準ではないにしろ、少し幅をつけてみよう
個々の採点者はある得点を中心に正規分布で配点する、もしくは一様分布で採点する、あるいは同じ点数しかつけないものとする
正規分布で採点する者は、正規分布の合成が正規分布になることから、平均値の分布もまた正規分布
一様分布で採点する者は、分布関数の底上げにはなるが平均値には影響を与えない
同じ点数しかつけない者も、平均値そのものをずらす事にはなるが正規分布の形は歪めない
つまるところ上記の前提が成り立つ場合には、平均値の分布は厳密に正規分布になる
毎回1点で、たまに4点をつけるような人が大量にいないと、この評点と言う平均値分布を正規分布から歪めるのは難しいように思う
208デフォルトの名無しさん (ワッチョイ 9501-o74w [126.25.129.72])
2019/10/13(日) 12:13:54.05ID:pJwii1Hg0209デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 12:41:16.37ID:Fxu1r5BT0 >>205
平均値についても同様の事が言える
仮に評価する側が同じだとしても
店舗の特徴によって分布の形は変わる
分布の形を見る事で店舗の特徴を把握してその店を利用するかどうかを事前に利用者が判断できるようにするサービス
が本来目標としたものかもしれない
分布を意図的に操作する事で金儲けに利用しようとした疑いが上がっているという問題だと思う
平均値についても同様の事が言える
仮に評価する側が同じだとしても
店舗の特徴によって分布の形は変わる
分布の形を見る事で店舗の特徴を把握してその店を利用するかどうかを事前に利用者が判断できるようにするサービス
が本来目標としたものかもしれない
分布を意図的に操作する事で金儲けに利用しようとした疑いが上がっているという問題だと思う
210デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 12:44:15.71ID:Fxu1r5BT0 >>207
評価尺度はただの順序尺度で間隔尺度ではないだろう
評価尺度はただの順序尺度で間隔尺度ではないだろう
211デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.4])
2019/10/13(日) 12:53:02.60ID:sm0sVhGqM212デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 13:19:59.66ID:kaSZg9r20 いかん、ラーメン屋の得点とスイーツ屋の得点を合わせて平均するとか謎なことをしていた
改めてデータに立ち戻ろう
3.6にピークがあるのは、とりあえず4に入れておこう層が2/3くらいいて、残りの1/3がとりあえず3に入れておこうということ4*2/3+3*1/3=11/3=3.67で説明できそうだ
逆に言えば、ここにピークが立つのは「とりあえず3か4に入れとけ層」が一定数いるということで、これは直感と合うのであまり怪しくはなさそうだ
次に3.8にギャップがある理由を考えてみる
元のデータを見た所、2つのガウス関数の和で表現できそうだ
一つは平均3.6で3σが0.3にあるピーク、もう一つは平均3.75で3σが0.05のピーク
こう仮定すると3.8にギャップができているのは、この2つ目のガウス関数の裾野に原因がある
この2つのガウス関数が意味するところは
ラーメン屋に通う「オヤジ層」とスイーツ屋に行く「レディー層」の違いを表すのか、
あるいは「関東に住んでいる層」と「関西に住んでいる層」を地域差表すのか、
はたまた疑惑の「操作されていない層」と「操作されている層」の人為操作の違いを表すのか
ラーメン屋だけの分布、特定地域だけの分布は作れそうだが、疑惑の操作に辿り着くのは難しそうだ
改めてデータに立ち戻ろう
3.6にピークがあるのは、とりあえず4に入れておこう層が2/3くらいいて、残りの1/3がとりあえず3に入れておこうということ4*2/3+3*1/3=11/3=3.67で説明できそうだ
逆に言えば、ここにピークが立つのは「とりあえず3か4に入れとけ層」が一定数いるということで、これは直感と合うのであまり怪しくはなさそうだ
次に3.8にギャップがある理由を考えてみる
元のデータを見た所、2つのガウス関数の和で表現できそうだ
一つは平均3.6で3σが0.3にあるピーク、もう一つは平均3.75で3σが0.05のピーク
こう仮定すると3.8にギャップができているのは、この2つ目のガウス関数の裾野に原因がある
この2つのガウス関数が意味するところは
ラーメン屋に通う「オヤジ層」とスイーツ屋に行く「レディー層」の違いを表すのか、
あるいは「関東に住んでいる層」と「関西に住んでいる層」を地域差表すのか、
はたまた疑惑の「操作されていない層」と「操作されている層」の人為操作の違いを表すのか
ラーメン屋だけの分布、特定地域だけの分布は作れそうだが、疑惑の操作に辿り着くのは難しそうだ
213デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 13:25:37.35ID:Fxu1r5BT0 操作がなかったという帰無仮説を棄却できるかどうかじゃね?
214デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 13:39:33.29ID:kaSZg9r20 >>202
まぁ>>208でも言っているけど画像をCNNで処理することを汎用化して言ってる気はするなぁ
少し古いけど
https://deepage.net/deep_learning/2016/11/07/convolutional_neural_network.html
にある
CNNはこういった特徴を抽出するための検出器であるフィルタのパラメータを自動で学習していく
ということなんだろう
RNNでも同じ話はあるので画像だけってことはないけど、なんでもかんでも特徴量を自動抽出ってことではないよ
まぁ>>208でも言っているけど画像をCNNで処理することを汎用化して言ってる気はするなぁ
少し古いけど
https://deepage.net/deep_learning/2016/11/07/convolutional_neural_network.html
にある
CNNはこういった特徴を抽出するための検出器であるフィルタのパラメータを自動で学習していく
ということなんだろう
RNNでも同じ話はあるので画像だけってことはないけど、なんでもかんでも特徴量を自動抽出ってことではないよ
215デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16])
2019/10/13(日) 13:45:19.51ID:48i2xCpca 三層のニューラルネットワークでは xor を分離できないという問題は
さらに多層になったことで何で解消されたの?
さらに多層になったことで何で解消されたの?
216デフォルトの名無しさん (ワッチョイ e394-P4H7 [115.37.73.212])
2019/10/13(日) 14:17:08.81ID:25TC8kRG0 3.8を超えた評価を3.6に落としてるって仮定したらほぼ同じヒストグラムになる
https://i.imgur.com/NrNIWrn.jpg
平均3.8標準偏差0.5で正規分布を生成して、3.8を超えた評価値を90%の確率で平均3.6標準偏差0.01の正規分布で取り直す操作をした(N=1000)
ただ同じだからと言って>>212のように元データの特徴量ごとの性質の違いを反映しているだけかもしれない
https://i.imgur.com/NrNIWrn.jpg
平均3.8標準偏差0.5で正規分布を生成して、3.8を超えた評価値を90%の確率で平均3.6標準偏差0.01の正規分布で取り直す操作をした(N=1000)
ただ同じだからと言って>>212のように元データの特徴量ごとの性質の違いを反映しているだけかもしれない
217デフォルトの名無しさん (アウアウエー Sa13-P4H7 [111.239.178.130])
2019/10/13(日) 14:21:02.62ID:qY0pTgmia >>213
操作がないという帰無仮説について仮説検定の方法で検証するには操作がない場合の点数の理想的な分布を知っていなければならない
その理想分布に基づいて実際の分布がどの程度ずれているのかを確認するのが仮説検定なのだから
しかしそんなもの知り得ないので検定のしようがない
操作がないという帰無仮説について仮説検定の方法で検証するには操作がない場合の点数の理想的な分布を知っていなければならない
その理想分布に基づいて実際の分布がどの程度ずれているのかを確認するのが仮説検定なのだから
しかしそんなもの知り得ないので検定のしようがない
218デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 14:23:09.86ID:llG9wcVha219デフォルトの名無しさん (ブーイモ MM59-ToAo [210.138.208.219])
2019/10/13(日) 14:45:50.67ID:TJDkUn5hM220デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 15:01:05.43ID:kaSZg9r20 >> 215
細かいけど、まず層の数え方から
入力層は層に数えないので、ANDとORは1層で、XORは2層で表現できる
次にXORはなぜ2層で表現可能か
単純に、AND(正確にはNAND)とORの出力をANDで受ければXORが作れるから
ググったら以下のような図を見つけた
https://www.infiniteloop.co.jp/blog/wp-content/uploads/2017/12/XOR.png
>>218の回答はエレガントだけども、少し説明を加えると
(0, 0) → 0
(0, 1) → 1
(1, 0) → 1
(1, 1) → 0
を分ける直線は2次元平面内では書けないけど、3次元に拡張して
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
を分ける平面はa,b,c,dを適当に決めれば作れる(例えばa=d=0, b=c=1としてz=0.5の平面)
a,b,c,dを適当に決めて分離できるってそんなんアリかよ!?って最初は思うかもしれないけど
そんな純粋な気持ちは最初だけで、どうせa, b, c, dは見ないし分離できたら何でもOKになる
細かいけど、まず層の数え方から
入力層は層に数えないので、ANDとORは1層で、XORは2層で表現できる
次にXORはなぜ2層で表現可能か
単純に、AND(正確にはNAND)とORの出力をANDで受ければXORが作れるから
ググったら以下のような図を見つけた
https://www.infiniteloop.co.jp/blog/wp-content/uploads/2017/12/XOR.png
>>218の回答はエレガントだけども、少し説明を加えると
(0, 0) → 0
(0, 1) → 1
(1, 0) → 1
(1, 1) → 0
を分ける直線は2次元平面内では書けないけど、3次元に拡張して
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
を分ける平面はa,b,c,dを適当に決めれば作れる(例えばa=d=0, b=c=1としてz=0.5の平面)
a,b,c,dを適当に決めて分離できるってそんなんアリかよ!?って最初は思うかもしれないけど
そんな純粋な気持ちは最初だけで、どうせa, b, c, dは見ないし分離できたら何でもOKになる
221デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16])
2019/10/13(日) 18:39:55.88ID:48i2xCpca 二層あれば大抵の関数は模倣できるのに
何でもっと多層が必要なの?
何でもっと多層が必要なの?
222デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 18:43:34.64ID:Fxu1r5BT0223デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 18:44:48.26ID:Fxu1r5BT0 >>218
線型結合してる層を増やすとなぜ高次元になるのかを直感的に判るように説明して
線型結合してる層を増やすとなぜ高次元になるのかを直感的に判るように説明して
224デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 19:30:49.94ID:llG9wcVha225デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 19:32:44.25ID:llG9wcVha >>223
一旦中間層のニューロン数だけの次元を持つ空間を経由できるから
一旦中間層のニューロン数だけの次元を持つ空間を経由できるから
226デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/13(日) 20:04:55.16ID:Fxu1r5BT0227デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 20:33:11.99ID:llG9wcVha228デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/13(日) 20:44:50.78ID:/3kPh57iM ディープキスのほうがいい!
舌をからませるの
立つよね!
舌をからませるの
立つよね!
229デフォルトの名無しさん (ワッチョイ 9501-qBpa [126.25.131.86])
2019/10/13(日) 20:48:48.51ID:P1vmVh210 >ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない
こんなことを示した論文などない。
よくこんなことをさも証明されたことの如く言えるな。
こんなことを示した論文などない。
よくこんなことをさも証明されたことの如く言えるな。
230デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 21:28:26.53ID:kaSZg9r20 >>221
本質的な質問が来た
これについては俺も明確な答えは持ってないなぁ
直感的には、多層の方が中間層に保持できるパラメータ数が多く
そこには活性化関数を通した非線形の効果も含まれているので
ほどほどにノイズが消されていて抽象的な状態を保持できるから
と思うんだが、本当かどうかは分からない
本質的な質問が来た
これについては俺も明確な答えは持ってないなぁ
直感的には、多層の方が中間層に保持できるパラメータ数が多く
そこには活性化関数を通した非線形の効果も含まれているので
ほどほどにノイズが消されていて抽象的な状態を保持できるから
と思うんだが、本当かどうかは分からない
231デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/13(日) 21:37:08.64ID:llG9wcVha >>229
Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014.
NIPSの論文だが
何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか
Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014.
NIPSの論文だが
何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか
232デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 21:45:22.38ID:kaSZg9r20 >>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
233デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 21:46:31.38ID:kaSZg9r20 >>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
234デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16])
2019/10/13(日) 22:05:13.10ID:48i2xCpca 五、六層でいいのかと思いきや
ものすごく多層にするよねえ
うまくいくからという説明しかないのか?
ものすごく多層にするよねえ
うまくいくからという説明しかないのか?
235デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/13(日) 22:18:18.69ID:/3kPh57iM236デフォルトの名無しさん (ワッチョイ 0da5-X53N [42.127.86.111])
2019/10/13(日) 22:20:28.84ID:mSmeGM2p0 >>235
完全な関数の導入じゃなくて疑似的な関数が解ればいいから
完全な関数の導入じゃなくて疑似的な関数が解ればいいから
237デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/13(日) 22:35:14.55ID:kaSZg9r20238デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.155.10])
2019/10/14(月) 00:26:24.00ID:Xj3JYQcoa 専門的な知識はほとんどなく説明されても理解できる頭も持ってないけどマウントとりたいからとにかく突っかかる癖のある人が多すぎる
239デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.6])
2019/10/14(月) 00:50:17.12ID:yAy44Gfva 初等関数?
特殊関数?
特殊関数?
240デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
2019/10/14(月) 07:16:20.36ID:KQ95R8h/0 >>232
それだと
x1, x2の入力を受けるニューロンと
それからx3を計算するニューロンを並列に並べたら良い
x1-x1\
x2-x2-out
\x3/
みたいに
次元を増やすの意味として変数増加とx^2などと混同しやすい
これらを区別する言い方は何?
変数増加→高次元
x^2など→非線形
とか?
それだと
x1, x2の入力を受けるニューロンと
それからx3を計算するニューロンを並列に並べたら良い
x1-x1\
x2-x2-out
\x3/
みたいに
次元を増やすの意味として変数増加とx^2などと混同しやすい
これらを区別する言い方は何?
変数増加→高次元
x^2など→非線形
とか?
241デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
2019/10/14(月) 12:29:28.91ID:utYACZDud 前に『ゼロから作るディープラーニング』買ったけど
これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。
やっぱノートに書いて解き方や意味を学習するしかないと思うねん。
これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。
やっぱノートに書いて解き方や意味を学習するしかないと思うねん。
242デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 12:54:25.27ID:syyLl6c1M243デフォルトの名無しさん (ワッチョイ 35b0-+TD/ [180.29.199.198])
2019/10/14(月) 13:19:28.08ID:aq/jCORe0 >>241
あの本は線型代数と微積分の知識は必須だと思う
あの本は線型代数と微積分の知識は必須だと思う
244デフォルトの名無しさん (ワッチョイ a3bd-NJTS [157.192.94.92])
2019/10/14(月) 13:53:05.51ID:pO8Bz3ni0 機械学習に数学はいらないよ
245デフォルトの名無しさん (オッペケ Sr61-B2ag [126.255.17.59])
2019/10/14(月) 14:01:22.69ID:htBbaZR2r 機械学習に数学はいらないよおじさん「機械学習に数学はいらないよ」
246デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 14:23:44.68ID:syyLl6c1M ソフト使うだけなら数学いらんわね
247デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173])
2019/10/14(月) 14:26:05.12ID:daX/fZMnF 適当にデータ放り込んで適当な手法を選択してなんとなく精度が良さそうなのを選ぶだけで成立する仕事なら数学など不要
普通の企業や研究室ではそんなものに金なんて出してくれないがな
普通の企業や研究室ではそんなものに金なんて出してくれないがな
248デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/14(月) 14:31:10.41ID:JdA0BOgta >>247
そういう仕事は既にAutoMLに取られつつあるね
そういう仕事は既にAutoMLに取られつつあるね
249デフォルトの名無しさん (アメ MM29-2D7i [218.225.236.127])
2019/10/14(月) 14:31:49.76ID:XFqMr8NbM というかこの世界ももう土方がいるのか
250デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
2019/10/14(月) 14:40:16.73ID:VuPQ6UMJ0 >>240
並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ
0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので
言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している
もう少し詳しく説明しよう
より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては
(f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1)
となっている
Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる
(1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる
隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り
それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある
単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない
並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ
0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので
言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している
もう少し詳しく説明しよう
より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては
(f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1)
となっている
Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる
(1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる
隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り
それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある
単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない
251デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 14:42:39.82ID:syyLl6c1M 最初から土方しかいないから。
今もほとんど土方。
できる人は研究者か大学教員になってる。
今もほとんど土方。
できる人は研究者か大学教員になってる。
252デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173])
2019/10/14(月) 14:47:46.87ID:daX/fZMnF この分野はむしろ大学より民間の方がやりやすいから本来なら博士行くような人も修士までにしてとっとと成果出せる環境に移ろうとする人が多くなってきた印象
253デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
2019/10/14(月) 15:08:32.93ID:utYACZDud >>242
ありがとう。調べてみます。
ありがとう。調べてみます。
254デフォルトの名無しさん (ワッチョイ 0359-o74w [133.175.166.116])
2019/10/14(月) 15:10:40.92ID:4WTqwCCG0 今ならまだ簡単にデータエンジニア目指せるけど、
早い者勝ちなのかな
すぐベテランにしか仕事がこなくなるよね
早い者勝ちなのかな
すぐベテランにしか仕事がこなくなるよね
255デフォルトの名無しさん (ワッチョイ 0359-o74w [133.175.166.116])
2019/10/14(月) 15:13:07.19ID:4WTqwCCG0256デフォルトの名無しさん (ワッチョイ 8302-o74w [101.142.8.160])
2019/10/14(月) 15:22:52.88ID:drx0D0Vb0 博士持ち or ベテラン < 精度の高い競馬予測モデル開発者
データを集めてくるところが始まるから、Kaggleより難易度高い
データを集めてくるところが始まるから、Kaggleより難易度高い
257デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
2019/10/14(月) 16:12:47.05ID:syyLl6c1M 博士号持ちといってもピンキリ
天才的な人もいるし、
とんでもない馬鹿もいる。
2、3枚の感想文のようなレポートで
博士号取れる院も
日本にある。
そこは博士号とりたい中国人ばかりが
留学生としてやってくる。
日本の恥!
天才的な人もいるし、
とんでもない馬鹿もいる。
2、3枚の感想文のようなレポートで
博士号取れる院も
日本にある。
そこは博士号とりたい中国人ばかりが
留学生としてやってくる。
日本の恥!
258デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
2019/10/14(月) 17:26:03.50ID:JdA0BOgta >>257
例えばどこの院
例えばどこの院
259デフォルトの名無しさん (ワッチョイ ab82-IE9o [113.20.238.175])
2019/10/14(月) 18:51:16.60ID:/yNf4ic50 >>255
DSって何ですか?
DSって何ですか?
260デフォルトの名無しさん (エムゾネ FF43-1wBF [49.106.193.20])
2019/10/14(月) 18:55:58.36ID:ljIrzJ7BF Deta
Saiensu
Saiensu
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【地震速報】青森県で震度6強 沿岸部に津波警報 ★6 [ぐれ★]
- 「日の丸にバツ印」掲げた大学生 あいまいな国旗損壊罪に「怖い」 The Mainichi [少考さん★]
- 【音楽】BARBEE BOYS・KONTAが事故で四肢麻痺を公表、新体制で活動は継続 [少考さん★]
- 中国「捜索レーダー起動は各国の通常の手法」 火器管制用か回答せず [蚤の市★]
- 【野球】野球の未来に危機感「マイナースポーツになる」 宮本慎也氏が開催…学童大会 [尺アジ★]
- 【訃報】声優・西村知道さん死去 「SLAM DUNK」安西先生役 9月に体調不良のため一時休業 [少考さん★]
- マヨネーズにわさび、山椒、卵の黄身、ラー油、オリーブオイルを入れてよく混ぜてください
- 普通の日本人「日本の新技術で中国破滅😤!中国経済崩壊😂!終わりの始まりwwwwwwwwwww」 [441660812]
- ぺこーら、地震で同僚が次々配信を止めるなか強行し続けるので悪目立ちするwww [268244553]
- 巨大地震 [957955821]
- ひろゆき「愛があるから人は苦しまなきゃいけないんだね」
- 【速報】高市早苗、起床 [779938112]
