【統計分析】機械学習・データマイニング26

■ このスレッドは過去ログ倉庫に格納されています
2019/09/15(日) 09:23:06.34ID:bjsiNRs40

機械学習とデータマイニングについて語れ若人

*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです

■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
Machine Learningを用いた論文一覧2018
https://shiropen.com/seamless/machine-learning/2018
2017年のディープラーニング論文100選
https://qiita.com/sakaiakira/items/f225b670bea6d851c7ea
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング23
https://mevius.5ch.net/test/read.cgi/tech/1551352040/
-
【統計分析】機械学習・データマイニング25
https://mevius.5ch.net/test/read.cgi/tech/1561568018/

【統計分析】機械学習・データマイニング24
https://mevius.5ch.net/test/read.cgi/tech/1556674785/
-
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:----: EXT was configured
VIPQ2_EXTDAT: checked:vvvvvv:1000:512:: EXT was configured
2019/11/29(金) 19:15:32.09ID:Ab9Y7Svv0
>>605
画像処理で高精度が出るDNNのモデルサイズを精度をあまり下げずに削減するような研究が出てきてるから、それを突き詰めると決定木的なルールが取り出せるのではないか
607デフォルトの名無しさん (ワンミングク MMdf-LjR8 [153.235.108.33])
垢版 |
2019/11/29(金) 19:18:55.66ID:9onQejqxM
えーまた同じ間違いを?
2019/11/29(金) 21:04:43.23ID:i2+wAL7T0
>>602
データテーブルでも回帰の滑らかさではnnが上だけどな。
2019/11/29(金) 23:37:12.91ID:ZRMLeeOO0
>>602
調律師次第ではNNもGBDTに精度で並ぶ
しかもNNとGBDTではGBDTの方がモデルの劣化が早い
2019/11/30(土) 09:04:53.45ID:DZbtLtp60
回帰がなめらかじゃないと困るって、たぶんあるとは思うけど具体的にどういうケースだろう
2019/11/30(土) 09:36:17.16ID:Uqy6J8Cl0
>調律師次第ではNNもGBDTに精度で並ぶ
んなわけねーだろ。。データが 2000,3000程度の場合、NNなんてまともに動かんわ。
612デフォルトの名無しさん (アウアウウー Sa23-29PW [106.154.127.208])
垢版 |
2019/11/30(土) 09:52:40.58ID:vuvC9RZIa
>>609
モデルの劣化って汎化能力が低いってこと?
2019/11/30(土) 10:17:22.90ID:g/CprbiQ0
overfitじゃない?
614デフォルトの名無しさん (アウアウウー Sa23-nO0S [106.154.136.36])
垢版 |
2019/11/30(土) 10:53:06.13ID:xqSKATFaa
>>611
それもNNの規模次第でゎ。。。
615デフォルトの名無しさん (アウアウウー Sa23-nO0S [106.154.136.36])
垢版 |
2019/11/30(土) 10:54:38.50ID:xqSKATFaa
>>609
劣化が早いってどゅこと?
モデルって腐るの。。。?
2019/11/30(土) 12:02:50.26ID:Uqy6J8Cl0
>>614
そんな小規模でNNチューニングしてまで使ううまみはないだろ?
ばかなの?
それとも本気で現場でそんな主張してんの?
2019/11/30(土) 12:09:04.69ID:A+rR0WU8a
はい
618デフォルトの名無しさん (アークセー Sx33-O/Gm [126.149.48.137])
垢版 |
2019/11/30(土) 12:58:50.37ID:YcFQTR8Rx
なんか悪かった
どう考えてもGBDTの方が精度出る案件でクライアントがでぃいぷらあにんぐ使いたいですってほざくから
むしゃくしゃしてやっただけなんだ

NGBoostは学習も推論も遅いし予測分布も分類じゃそんなに嬉しくないし結局LightGBM/CatBoostは超えられなさそうだよなぁ
2019/11/30(土) 13:03:41.07ID:OO2kPiiB0
>>618
> どう考えてもGBDTの方が精度出る案件でクライアントがでぃいぷらあにんぐ使いたいですってほざく
発注元の責任で このでぃーぷするとです って
明文化しとけよw
あとから責任おっかぶせられそうになると
ブチ切れちゃうぞw
2019/11/30(土) 13:57:35.50ID:kDVEf3m10
政策もビッグデータで決めるようになるらしい
2019/11/30(土) 13:59:00.59ID:OO2kPiiB0
>>620
テラ保守スwww
しっぱいするみらいしかみえないぞ・・・
2019/11/30(土) 15:42:08.94ID:NbIvukTW0
>>610
例えば学習データでは整数しかないけど、小数点の数値も予想したいときとか。
パラメータ変えた時に結果が同じだと説明の整合が取れないようなものにも使う。
2019/11/30(土) 16:47:02.28ID:n3PjdAM0a
数万程度のデータでNNは流石に無理だろう
過学習して終わるイメージ
2019/11/30(土) 17:12:57.03ID:369/mHN+0
パンピーには関係ない話だけど、
Kaggleで賞金狙えるレベルの人の中には、稀にNNでGBと大差ない精度を出す者もおるんだ
これはたびたびカーネルに出る話題だから間違いない
GBで特徴量を400程度使って出す精度と、ほぼ同等の精度を特徴量20~50程度で出すらしい
NNは前処理もパラメーター調整もシビアだけど、この少ない特徴量でモデルを組めれば、
実装後にデータの傾向が多少変わっても、GBDTよりは精度が落ちない
2019/11/30(土) 17:34:03.26ID:CwbTtXvfH
そんな怖いモデル使えないっす
2019/11/30(土) 17:54:56.02ID:U4j9IED8a
長期に渡って現場で使い続けられるかという観点ではパラメータをやたらと増やした力ずくモデルの方が信用ならない危険なモデルなんだけどな
627デフォルトの名無しさん (アークセー Sx33-O/Gm [126.149.48.137])
垢版 |
2019/11/30(土) 18:09:44.73ID:YcFQTR8Rx
実務上は精度追い求めるよりFeature Importanceが出せるかどうかの方が重要なんだよなぁ
2019/11/30(土) 18:32:57.53ID:HNwCuvLH0
NNでもGBでもいいけど、>>618のような客が使う道具まで指定してくるのがイタイ
これで失敗した場合の瑕疵担保責任はどっちにあるんだ?
2019/11/30(土) 18:40:26.81ID:Uqy6J8Cl0
>GBで特徴量を400程度使って出す精度と、ほぼ同等の精度を特徴量20~50程度で出すらしい
そりゃ20~50にうまく特徴量を絞れたらそうだろ。それが難しいんだっつーの。
それを半自動でやりたいってのがそもそもの機械学習の目的だろうに。
2019/11/30(土) 18:47:56.68ID:OO2kPiiB0
>>628
>瑕疵担保責任
契約書の文面の(偶然のなりゆきも含めた)ふいんきと
弁護士に幾らかけるか次第じゃね?
2019/11/30(土) 18:49:01.71ID:OO2kPiiB0
「渡り鳥の渡り行動の研究するよ!
モデル動物はニワトリ指定な!!」くらいの
明瞭な無茶苦茶さがあれば楽なんだがなw
632デフォルトの名無しさん (アークセー Sx33-O/Gm [126.149.48.137])
垢版 |
2019/11/30(土) 19:06:06.12ID:YcFQTR8Rx
大体4000件しかないデータで何すんだよ
Titanicじゃねーんだぞ
2019/11/30(土) 19:19:04.99ID:DZbtLtp60
>>622
台風の進路予想とか言うくらいのもっと具体的な例を期待していた
それだと滑らかな回帰ができないとホントに困るのかぴんと来ない
634デフォルトの名無しさん (スフッ Sd9f-DWOz [49.104.6.183])
垢版 |
2019/12/01(日) 09:32:45.02ID:loLKdL8Wd
このソニーのニューラルネットワーク関連の解説動画どうよ?
https://www.youtube.com/channel/UCRTV5p4JsXV3YTdYpTJECRA

良い動画だと思うんだけど、このスレの人たちの意見を聞きたいです。
2019/12/01(日) 09:34:39.98ID:YoP0MD/80
アノテーションツールとしてVoTTとlabelImgが紹介されているが
VoTTの方が楽かな
ただしtag名を入力してから、最後にエンターキーを押さないと
それが確定しない、という事を知っておかないと
いつまで経ってもtagすら作れないw

labelImgはpythonのpyqtから作るからワクワク感があるが、
自分の落として来たバージョンがミスっていたのか、プログラム内のimportファイルの書き方に
3ヶ所エラーがあって、自分で「こんな行き当たりばったりの治し方で良いのかなあ?」
と直したら、とりあえずユーザーフォームが開く所までは動いた
だがまだ肝心なアノテーションを試してないなあ
ボロボロだったりして
2019/12/04(水) 16:01:19.77ID:tCRQbFTxr
GPUのメモリがオーバーしてしまい
Jupyter閉じてプロセスID調べてtaskkillと

こんなの出来たんかwwwww
637デフォルトの名無しさん (ワンミングク MMdf-LjR8 [153.235.108.33])
垢版 |
2019/12/04(水) 16:29:35.31ID:9sxYmTh0M
knnをneural netでやるのって無意味?
638デフォルトの名無しさん (ワッチョイ 5f01-YC6P [126.94.220.36])
垢版 |
2019/12/04(水) 16:54:35.12ID:vhuKISsK0
コリアン・ニュース・ネットワーク。
2019/12/05(木) 20:26:03.41ID:NiCdCRl60
chainerやめちゃうのか
chainerXとかリソースメチャクチャ使ってたのに
やはりマーケティングの失敗だよなあ
非常に残念
2019/12/05(木) 20:36:15.87ID:NKJ9SQ6T0
マジかよChainerの勉強もそこそこ進めてた矢先に

まあPyTorchが類似部分が多いから何とか
2019/12/05(木) 20:52:35.88ID:NiCdCRl60
PyTorchに統一して欲しいね
TF2.0も今更感あるし
初心者向けのKerasとプロ用のPyTorchの2つでいいと思う
2019/12/05(木) 21:11:16.43ID:aecxiEdH0
粘着してたkerasの作者大勝利だな
2019/12/05(木) 21:55:53.24ID:JFK1j8cBr
chainet-rlの代わりは何がよいの?
cupyとoptunaは開発継続らしいよ
2019/12/06(金) 01:37:39.24ID:GLXpNeMl0
マーケティングじゃなくてマンパワーの差。
2019/12/06(金) 04:01:13.87ID:1/Pn3P+Y0
何といっても深層学習の数学的な枠組みが分かってないと
使いにくいのがChainerとPyTorch
だが細かくカスタマイズし易いのがChainer&PyTorch

kerasは「何かこのタイミングでこれっぽい事したら上手く動くんじゃね?」ぐらいの理解でも
何とか動いてくれる
でも細かなカスタマイズは出来ないからTensorflow丸ごと弄ることになって、
そうなるとChainer&PyTorchより更に上のレベルの数学的な理解と
そのプログラミング上の実装を知っておく必要が出来てしまう
2019/12/06(金) 07:42:41.87ID:GLXpNeMl0
まあ、良いのではないでしょうか
マイナーチャンジに力を注ぐより、より良きものを求めることが立場
2019/12/06(金) 07:43:08.75ID:GLXpNeMl0
できる立場
2019/12/07(土) 09:11:16.92ID:ARR8om9gM
tf2.0とpytorchってシェアほぼ互角じゃない?
どっちに統一されるかは知らん。自分の使ってる方がマイナーになったら
あきらメロン
2019/12/07(土) 09:44:14.90ID:iMRj3aHc0
メロンです、請求書です。
2019/12/07(土) 09:58:04.39ID:xi7Cj8Cta
ツールが使えるだけで機械学習や統計を理解した気になっている人は危険だと言うことだ
本当に理論から理解していれば多少記法が変わったところですぐ順応できるが、特定のフレームワークを使った単なる作業者だとそのフレームワークが下火になった時に移行するのにかなりの労力が必要
2019/12/07(土) 10:43:12.55ID:ARR8om9gM
はじパタ本とかゼロから作るで適当にベースを作っただけでも
複数のツールを使うぐらいならワケないけどな
でもそのレベルだとこれからは機械学習を専門職にはできない感じがする
2019/12/07(土) 12:39:37.05ID:ZsYnLuoj0
ハードウェアサポートが広い方を使いたいからtensorflowって感じになってる。
分散環境での学習とか、クライアント機でどれだけ動くのかがこれからの焦点なんじゃないかね。
コード内容自体はどっちも大して変わらん。バカは大騒ぎするけど。
2019/12/07(土) 15:48:15.19ID:adovJNi9M
ゼロから作るやっとくメリットで具体的になんですか?
2019/12/07(土) 15:58:51.31ID:kC4yD5gfF
自動微分を自分で実装すると手間だなというのが実感できる。
655デフォルトの名無しさん (ワッチョイ bd54-DV35 [180.235.0.69])
垢版 |
2019/12/07(土) 16:41:02.63ID:8POX1SPh0
あ、はい
2019/12/07(土) 16:52:12.95ID:ARR8om9gM
>>653 NN、畳み込みNNやLSTMのロジックを一から理解できる
逆にいえば、そこ完璧にわかってるならやる意味ないだろうなあ
2019/12/07(土) 17:00:30.01ID:xi7Cj8Cta
「ロジック知って何の意味あるの?知らなくても使えてるよ?」みたいなことを言う奴が出てきそう
2019/12/07(土) 17:06:56.43ID:ARR8om9gM
お前が使えるレベルならそうなんだろうとしか言いようがないな
2019/12/08(日) 08:50:34.91ID:pkvtzmnX0
つまり意味はない、ってことだな
660デフォルトの名無しさん (ワッチョイ 5a3d-MVf8 [219.104.75.160])
垢版 |
2019/12/08(日) 09:09:03.18ID:d61YKsOU0
>>659
好き
2019/12/08(日) 09:36:02.76ID:wx0c05j8a
ハイパーパラメータの自動調整をまともに使うには背景にある統計理論の知識がいるよ
662デフォルトの名無しさん (ワッチョイ 6190-MVf8 [42.126.56.69])
垢版 |
2019/12/08(日) 13:55:46.22ID:KMc7Z1Fn0
chainerは単純に人員が足りてなかったと思う
リリース版にバグがあるままリリースしてる
リリース版の更新が多すぎ
で離れて使わなくなった
663デフォルトの名無しさん (ワンミングク MM6a-DV35 [153.235.108.33])
垢版 |
2019/12/08(日) 15:40:26.42ID:dxbVA0b4M
いうてtfもバグなしじゃないだろ
2019/12/08(日) 16:05:40.36ID:HPGGb6iI0
>>661
あんまり関係ないがな。
hyperoptなりoptunaなりにつっこむだけだろ。
しかもそんな変なチューニングするくらいなら論文のままのもの使った方がいいっていうおまけつき。
665デフォルトの名無しさん (ワンミングク MM6a-DV35 [153.235.108.33])
垢版 |
2019/12/08(日) 16:11:39.81ID:dxbVA0b4M
automlで適当に調整してくれるしな
2019/12/08(日) 17:12:03.76ID:DDGzay+d0
>>662
いよいよ倒産が見えてきたのかな?
受託もしないし自社サービスも出さないし
それでやってられるとは思えん
とにかくユーザーが使えるサービスをリリースしないと
2019/12/08(日) 17:15:40.02ID:S4ZYhJQRa
ハイパーパラメータ調整ツール自体の調整能力まで把握した上で使うならいいが
理論も分からない、ツールがどうやって調整したのかも分からないだと困るな
「どうしてこのハイパーパラメータが最適なのか?」の質問に対して「ツールがそう算出したから」「論文に書いていたから」を回答にせず説明できるなら問題ないとは思う
2019/12/08(日) 17:26:18.38ID:d61YKsOU0
>>667
それは生産性も価値もない話だと思う
理論について勉強することは必要だけど、重箱に隅のような知識を大切にするよりは
機械学習の外に目を向けた方がいい
2019/12/08(日) 17:31:13.86ID:4TAWhQS40
>>666
嫉妬じゃん
670デフォルトの名無しさん (ワッチョイ 6190-MVf8 [42.126.56.69])
垢版 |
2019/12/08(日) 19:49:05.17ID:KMc7Z1Fn0
pfnってなんか仕事はしてるだろ
トヨタとの共同研究ってまだ続いてるんじゃないの
2019/12/08(日) 20:50:44.18ID:7TPIEo2i0
オコボレ狙いの企業が未だに群がってるから、財源の心配は無いだろう

人材に恵まれていないのか成果がパっとしないけど、
それでも日本のSI企業に頼るよりPFNに投資した方が賢い
672デフォルトの名無しさん (ワッチョイ f610-DJoW [153.131.102.129])
垢版 |
2019/12/08(日) 20:59:04.48ID:wWaHJEbO0
>>667
試した中で一番いい結果だから
じゃダメなんですか?
2019/12/08(日) 21:32:17.42ID:HPGGb6iI0
PFNみてるとgoogleが広告やらなかったらこんな風にじり貧になってたんだろうなってのが想像できる。
674デフォルトの名無しさん (ワッチョイ 6190-MVf8 [42.126.56.69])
垢版 |
2019/12/08(日) 22:44:35.51ID:KMc7Z1Fn0
googleは元々広告で食ってるだろ
2019/12/08(日) 23:18:41.13ID:DDGzay+d0
>>669
嫉妬というかこれだけの技術力あるのになにをしてるんだ?という気持ち
結局第三者から見たchainer以外のアウトプットはないわけだし
それを切るってもう何も残らん
676デフォルトの名無しさん (ワッチョイ 6190-MVf8 [42.126.56.69])
垢版 |
2019/12/08(日) 23:30:34.77ID:KMc7Z1Fn0
いちいち公開してないだけで色々案件はやってるだろ
2019/12/09(月) 00:20:35.28ID:NiFr8TmZ0
>>675
技術力って何?具体的に何のこと?
2019/12/09(月) 01:54:46.39ID:PMVVzMoi0
第三者ってどの程度のこと言ってるか分からんけどCuPyとかoptuna使ってる人そこそこいるだろ
2019/12/09(月) 13:00:46.54ID:cQNHGZkd0
機械学習で日本の人名を生成したい
どうすればできる?

当方しがないエンジニアでpythonはできるが、
機械学習周辺のキーワードがわからなくて調べられずに困っている
GANとかいうのは画像用だから使えないんだよな?程度の知識
680デフォルトの名無しさん (アウウィフ FF79-MVf8 [106.171.79.171])
垢版 |
2019/12/09(月) 13:09:35.22ID:RLwtKsqpF
日本の人名は戸籍に使える文字が決まってるから
そこから選べ
2019/12/09(月) 13:14:56.65ID:cQNHGZkd0
>>680
ありがとう
ただこれの用途はキャラクターの命名なので、
現実に使える文字かどうかはあまり重要じゃない
むしろ実際にはありえなさそうな方が良い
2019/12/09(月) 13:55:54.49ID:scocuTx70
>>681
保険会社かなんかが姓名ランキングしてるから
まずは使える文字からランダムして
よくある苗字や名前になってたら再抽選
2019/12/09(月) 15:05:03.48ID:xDp47k0Pa
ディープなことするよりマルコフ連鎖とかでやった方が良さそうだけどな
684デフォルトの名無しさん (アウウィフ FF79-MVf8 [106.171.79.171])
垢版 |
2019/12/09(月) 15:14:40.70ID:RLwtKsqpF
条件後出しは失格
685デフォルトの名無しさん (ワッチョイ bd54-8zr5 [180.235.0.69])
垢版 |
2019/12/09(月) 16:25:34.13ID:HdYgf83V0
ああ、同人誌みたいなライトノベルみたいなどうしようもないやつに使いたいのね
乱数でいいんじゃね?
2019/12/09(月) 19:24:47.20ID:QTsW6dvXa
ランダムな個人情報を生成するプログラムなら既にあるが
テストとかに使うらしい
2019/12/09(月) 21:39:53.12ID:w/kMOH0C0
人名ジェネレーターで良くない?
辞書リストと乱数で成り立っていてAI不要な
688デフォルトの名無しさん (ワッチョイ 5aad-CqlS [27.139.41.170])
垢版 |
2019/12/10(火) 04:20:23.19ID:0gRjlhkw0
デスノートのいじめが発生しないようにって配慮スゲーって思ったな
689デフォルトの名無しさん (アウウィフ FF79-MVf8 [106.171.67.227])
垢版 |
2019/12/10(火) 14:05:49.73ID:48kVELqAF
阿部進次郎
2019/12/11(水) 19:37:08.57ID:LCchQiSlD
ご質問なのですが、機械学習の回帰問題において、教師信号が特定の範囲内にある時の重みを重くするような損失関数はありますでしょうか?

私が解きたい問題においては、教師信号の値が0~1の間の値を取るように基準化しているのですが、
例えば、RMSEを下記のようにカスタマイズした損失関数を使用したいのです。

False Positive:学習器の出力は0〜0.2の範囲だが、教師信号は0.2より大きい or
学習器の出力は0.8〜1の範囲だが、教師信号は0.8未満

False Negative:教師信号の出力は0〜0.2の範囲だが、学習器の出力は0.2より大きい or
教師信号は0.8〜1の範囲だが、学習器の出力は0.8未満  

とTrue negativeとFalse Negativeの場合にのみ損失関数を計算するか、重みを大きくした損失関数を使いたいのです。

もしご存じでしたら、この損失関数を使用可能な学習器やライブラリなどを教えていただけますでしょうか。
ライブラリなどが無くても最悪論文などがあればそれでもかまいません。何卒ご教示をお願いいたします。
691デフォルトの名無しさん (ワッチョイ bd54-8zr5 [180.235.0.69])
垢版 |
2019/12/11(水) 21:41:26.98ID:DwgG6llj0
わかんない
2019/12/11(水) 21:52:30.04ID:10/84Yqu0
知らない
2019/12/11(水) 22:27:12.29ID:ARdMYJJF0
andで繋げたら?
2019/12/11(水) 22:52:42.17ID:KfdgnhFCa
損失関数自分で定義すればいいじゃん
2019/12/12(木) 00:35:12.72ID:XDEaLtEed
>>690
まず教師信号とはなに?ベクトル?時系列?
>教師信号が特定の範囲内にあるとき…
ヘビサイト関数(ステップ関数)の重ね合わせで表現可能

>RMSE
二乗平均?(RMS)
よくわからん。一般的でない。

>false positive, false negative…
応答だけ書かれてもわからん。±で4パターンあるだけ?
2019/12/12(木) 06:56:14.26ID:HzXPCxE7r
>>690
fpに分類をよせたいということであれば重み付けカッパ係数で評価する方法はある。
ttps://qiita.com/tand826/items/4d1fb2045f2b48d21b7d

求めているものと全くちがうかも
697デフォルトの名無しさん (ワッチョイ 5b54-OFkf [180.235.0.69])
垢版 |
2019/12/12(木) 07:02:30.85ID:x0loQ0xU0
理解してない人が繰り出す小手先の改善ほど効果のないものはない
2019/12/12(木) 07:37:25.30ID:xvtH/KsFd
>>695
RMSEは一般的だけど。。

>>690
やり方は主に2通りある
一つはサンプルをいじる方法、もう一つは関数をいじる方法だけどもっと詳しく聞きたい?
2019/12/12(木) 08:02:27.31ID:mOtpkcnLa
うんこレベルに無知なくせに回答しようとするゴミって
どういうメンタルなんだろうなw
機械学習は分かるけどウンコの考えは謎だわ
2019/12/12(木) 09:22:48.99ID:rtEMPQR+d
文句いうだけのうんこよりマシって程度
2019/12/12(木) 12:56:19.08ID:qy4ltjlBD
皆さん、お忙しい中返信をありがとうございます。

>>698
知りたいです。是非教えてください。
>一つはサンプルをいじる方法、もう一つは関数をいじる方法だけどもっと詳しく聞きたい?
2019/12/12(木) 17:43:51.02ID:xvtH/KsFd
>>701
サンプルをいじる方は2パターンあって、重みを付けたい範囲のデータを水増しして増やすか、逆に重みを付けたくない方のデータを間引くかのどちらかを行う

関数をいじる方は、使ってるライブラリのオプションにweightみたいなのがたぶんあるはず。無ければ自分で実装しかないんじゃないかな
2019/12/12(木) 21:49:18.95ID:x0loQ0xU0
違う話になってない?
2019/12/12(木) 22:07:40.49ID:SSYYfvrk0
損失関数を変えるってより真の目的は特定のデータ範囲だけ重み付けしたいということだと解釈したけど、違ってたらすまん
2019/12/12(木) 23:49:42.64ID:2XjPPOkCd
>>702はあほか
ただステップ関数だけやん
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況