【統計分析】機械学習・データマイニング20
■ このスレッドは過去ログ倉庫に格納されています
機械学習とデータマイニングについて何でもいいので語れ若人
※ワッチョイだよん
次スレ立ての際は、一行目冒頭に
!extend:on:vvvvv:1000:512つけてね
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング19
http://mevius.2ch.net/test/read.cgi/tech/1520586585/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured >>722
再確認すれば良い
利用規約の改定とか普通によくあることじゃね? >>723
その再確認を既に退院した人含めて一人一人にするのは結構大変なのでは arxivのML・DL論文読んでて、日本人の論文少ないよね >>724
新たに同等のデータを取るのに比べたら手軽じゃね?
現状の法律でも個人情報の開示や削除要請には応じる必要があるからその準備はできているはず 分類するときにA,B,C,その他みたいに分類できるアルゴってないですか?
学習してない似たやつをどや顔で間違えて分類するのでなんとかしたい one vs allかone vs restで検索
もしこれで分類できないならそもそも使っている特徴量的にA,B,Cとその他が区別できていないのだろうから特徴量の選定からやり直す >>735
文系PGを抱えてる会社を食い物にする商売ってどんなの? AI(人工知能)で既存のホワイトカラーの仕事がなくなっていく一方、
孫正義が言うように「AIのエンジニア」の需要は増加する。
そこで画像生成について学習してるんだが、
DCGANは知ってたけどCycleGANというものがあることを知った。
CycleGANはかなり面白そうだったので、
自前で人工知能作ろうと思う。
GTX1080で3時間学習させたCycleGANがあったんだが、
男性のトーク動画を女性に変換しててすごいと思った。
これから購入するパソコンのスペックはGTX1080以上あればいいかな? アトラクター?
ポアンカレ断面の不動点でも求めてんのかね これからの時代、人とのコミュニケーションを鍛えた方が生き残れると思うよ メモリ8GBでやってたら訓練データメモリに載せるだけでPCカックカクでわろた
一応モデルとバッチはGPUのメモリが足りてるからいいけど訓練データ増えたらきついな tensorflowなら訓練データをtfrecordにして非同期読み込みすることで解決できるけど もちろんTFRecord にしてもいいけど、
クラウドでやれば最低でも50GB くらいはメモリついてるぞ 訓練データ全部メモリに乗せてやるなんてMNISTくらいでは GANを勉強してるんだけど識別者の方は基本的に偽物だと判別し続けるってことで合ってる? >>751
じゃあどうやって識別者は学習していくの?
教師ありではないんだよね >>752
ジェネレータが生成したデータか本物のデータかってラベルはGANの枠組みとして付けられるよね
GAN自体は教師なしだけど、識別者はこのラベルを使って教師あり学習する 識別側の学習には教師ラベルを使ってるってこと?
識別の学習では普通の分類NNのように本物の画像と正解ラベルを使ってそれらが本物であることを学習させていくってことか
じゃあ生成側の学習はどういうしくみ? >>753
安価つけ忘れた
ID変わったけど>>752です >>754
識別側はデータが本物なら1、偽物なら0を出力するように学習するので、生成側は自分が出力した画像に対して識別側に1を出力させるように学習する >>750
偽物だと判別し続けるモデルに何の価値がある?何にも判別してないではないか?
言ってておかしいと思わないのか? GCPのAutoMLを利用しようと思ったんですけど、プロジェクトを選んでSET UP NOW押すとCustomer bucket missingって出てセットアップ完了しないのですが、今ってAutoML使えないんですか? 自己解決
自分で "プロジェクト名-vcm"のバケット作ったら行けました
何故自動で作ってくれないのか… CNNの分類による検出器の作り方ですが、
例えばドラレコの映像から人を検出したいとして、
例えば映像を適当な矩形でラスターして人か否かの2出力CNNにかける場合、
学習時にネガティブとして与える映像はどうすればよいですか?
人以外のあらゆる一般物体を集めてきてネガティブにすれば効果が高いのでしょうか? >>760
それだと分類じゃなくて
YoloとかSSDとか検出器使ったほうがよくない? 自動運転ってyoloとかでオブジェクトを単体で視認したあとってif文とかでやってるのそれとも論理プログラミングとか? >>761
検出器を使っていない理由は画像全体にラベリングしたいからです。
それだとsegnetとかをファインチューニングしろ、と言われそうですが
ピクセル単位のラベル付けが困難なためです。
結局のところsegnetのようなものをCNN分類を矩形走査することで画像単位ラベルのデータセットのみで作ってみたいということです。 >763
あーそうだよね。その存在が脳からドロップアウトしてたわ、ありがとう BERTの成功とその方向性から垣間見える
脳構造の模倣における連続的時間情報の把握の重要性
俺が>>650で指摘している状態
>おそらくは完璧を求めると
>階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み
>なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある
>これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう
これとBERTで使われている、transformerよりも更に多層化して各層の参照密度を増したAttentionとの間に
共通性を認識できる人がいれば、俺の言い分を理解してもらえるだろう 私たち日本人の、日本国憲法を改正しましょう。
総ム省の、『憲法改正國民投票法』、でググって
みてください。拡散も含め、お願い致します。 >>767
じゃあ違うネタ出してみるとか
確率モデルのpythonライブラリは何使うのが良いかしら >>764
画像全体にラベリングってマルチラベリングしたいってこと?
yoloもssdもラベル作成は矩形単位だよ >>770
例えば、
2cm四方の正方形の画像があった場合
その正方形を1cmの正方形で4分割して
分割した4枚それぞれの正方形の画像が人か人でないか分類したい、
ということです。 >>771
その分割から分類までやってくれるのが
まさにyoloとかssdなんだけど
だめなの? >>772
すいませんちょっと質問の仕方を変えさせていただきます。
入力画像に対して「犬」、「猫」、「それ以外」の3クラスで分類を行いたい場合、
「それ以外」のクラスとしてどのようなデータセットを与えるべきでしょうか? cifar-10やimagenetの犬猫以外のクラスを与えたら? >>774
>「それ以外」のクラスとして
2クラス分類で
犬 1 0
猫 0 1
それ以外 0 0
とする。やったことないけど。 データセットって訓練データとテストデータに分けるんだな >>779
確率として解釈出来なくなるから
犬 100
猫 010
他 001
とすべき >>777
与えた結果よい成果を生んだ参考文献か何かはありますでしょうか?
直感ですと特徴を捉えきれないと思うのですが上手く作用したりするのですかね。
>>779
そんなラベルの付け方もあるのですか??
出力層の正規化はどうやるのでしょうか? >>782
文献は知らないけど
スクラッチで学習するんじゃなくGoogLeNetとかをファインチューニングしたらどうかな >>778
同じ話しを延々とやってるわな、根本的に向いてないわ ゴチャゴチャ言ってるけど、実験結果とか全然書かないんだもんw >>774
yoloとかssdなら犬検出、猫検出
どちらも検出しないで3クラス分類できるよ
それ以外のデータセットなんていらない 実験結果
CPU使用
MNISTでソフトマックス関数使ってやってみた結果
100エポック
92%
フィードフォワードネットワーク利用
300エポック
98%
MNISTぐらいならCPUでもそこまで時間かからないな
人工知能用にPC買う予定だけど
GPU使用が楽しみだ >>786
分類やりたいだけなのにわざわざ検出アルゴリズム持ち出すのって大仰過ぎないか 普通のニューラルネットで猫なら[1,0]、犬なら[0,1]と出力するように学習させれはどちらの特徴も持たないものは[0,0]と出力されるはずだろう >>789
そうなるかな。どっちかを出力するんじゃない。。。 >>787
適当に3~4階層で作ったので
MNIST87%行ったから
DLチョロいじゃんとか思って
Karasの他のapplicationに手を出したら
学習終わるまで300時間とか言われて泣きが入って
RTX2080Ti買おうと思ったら高過ぎワロタ どうも・・・。俺です
AIを否定する記事見てムカついた
絶対に女を裸にするアプリ作ってやる
クソが >>786
yoloから検出機能を取ったようなネットワークがあれば良いのですが・・
最悪全クラスに対して識別器を作ってもいいので、
犬の画像が入力された時だけ発火して1を返すようなネットワークでもいいのですがそんなのありませんかね?
>>789
多クラス分類のためソフトマックス正規化を使っているので0,0にはならないですね。
この例で言うと0.5,0.5になってくれると大万歳なのですが大体そうはなりません。
上の人が言ってるようにどっちか推して来やがります。
>>792
そこまで高いの買わなくても、
サブ機に1050Ti積んでますけど
inceptionv3の199層〜のファインチューニングでも
32000枚を100エポック回して大体5時間で終わりますよ
低価格でいろいろ試すには悪くない性能だと思うので検討してみてはいかがでしょうか。 1000クラス分類のImageNet使えば云いだろ…
それこそkerasやpytorchならなんの苦労もなく呼び出せるわ >>795
ソフトマックスを使う限り、出力が[0.5, 0.5]というのは犬の確率と猫の確率が同程度であるという意味しか持たない
同程度に高いのかもしれないし同程度に低いのかもしれないわけだが、この両者は分離できなければならない
ということで出力層にソフトマックスは使わずに例えば単にシグモイドを使えば出力される2つの数はそれぞれ犬・猫の確率を独立に算出したものとなる
適当な閾値を決めて一方のみが大きければ犬or猫と判定、共にゼロ近くならどちらでもないと判定すればいい
それ以外の中途半端な出力が頻発するならそもそも犬猫の特徴を学習できていないので出力層を工夫したところで無駄であり、学習データを増やしたり出力層以前の層の構造を改良するしかない >>789
犬猫だけで分類学習したネットワークにそれ以外のデータを入力することがナンセンス
学習した分布から外れたデータだから出力がどうなるかは分からない
犬でも猫でもない画像だとしても高い確度でどちらかに分類され得る >>798
最近傍距離でやったらそうなるよね.
本当にナンセンスと言うことに同意. >>795
元々の目的が人か否かを検出したいんだよね?
yoloを使えば良いと思うけど,それを使いたくないなら
>>760 の通りの方法でも汎化性能は悪くなるはずだけど行けなくもない(実運用はやめてね)
人のように見えるオブジェクトを誤検出するだろうし,人のポスターを人と判断するだろうし
多クラス分類にして,より確率の高い分類器xを選ぶじゃ駄目なの?2値分類は汎化性能という意味では極端に弱いから自動運転に関しては辞めた方が良いと思うよ >>760
言い忘れたけど,人以外の物体が何を指すのかよく分からないけど
人が写って無い道路の画像で学習させるのが一般的だと思うよ.
それ以外の画像だと潜在空間における人とotherの距離が不明になるし辞めた方がいいよ もう完全に教えてちゃんスレになったなw 立ち寄る必要なさそうだ 課題をただで人に聞きまくって何とかしたいという日本人のテンプレ。わりと良くいる AIっていかに論文をたくさん読んで、どれだけパクるかの勝負じゃん どんな分野でも基本は既存研究の発展で、ごく稀に全く新しい発明が登場するものだ >>797
なるほど、凄く答えに近いこと聞いた気がします。
アクティベートをシグモイドにするだけでその挙動が得られるのですか?
条件反射でソフトマックス使ってたので盲点でした。
少し試してみます。 >>798
なるほどそういうものなのですね。
しかし疑問なのが、どうして犬を検出する検出器は学習させることが出来るのに
犬の画像が入力された時だけ1を返すネットワークを学習させることができないかです。
明らかに後者の方が簡単なように思うのですが。。
お詳しそうなのでよければ教えていただけませんか? >>807
パラメーター変えてみました、別のに応用して見ましたということかw >>809
機械学習の一般論として、なにかを判定するには教師データとして正例と負例をおなじ数だけ与えるのが基本でしょう
「googleが猫を検出するDNNを作った」事例がよく取り上げられるけど、あれだって大量の猫画像とそうでない画像を与えている >>810
そこまでは言ってない。
ダークマターの質量が判りました。ってのより基礎研究の利用が応用に近いなあと >>809
前者は1000クラスの分類器がベースになってる
日常的に身の回りにある物は大体この1000クラスに含まれるので犬を(も)検出できる
当然その1000クラス以外が入力された時にどうなるか保証はない
後者は犬以外のどんな画像が入力されても0を返すのが難しい
これは犬以外に対応する潜在空間が圧倒的に広いから
でもまあ実用的には1000クラス分類器の流用で十分な気もするな >>805
> AIっていかに論文をたくさん読んで、どれだけパクるかの勝負じゃん
ということは、AIが何か知っているんか?
じゃ、AIとは何か言ってみ? 絵描き
「性的対象判定機にこの白黒の線画を判定させたらすごいスコアでた!」 >>813
なるほど。。
それなら素人考えですと、
imagenetの画像を犬とそれ以外の2クラスに分けて
2クラス分類で学習させたネットワークは
その検出器と比べて認識力ではほぼ等価と見なせますか? >>811
なるほど。
ではそのように猫だけを検出するネットワークを作りたいとしたら、
ネガティブとしてどんな画像を与えるのですか?
上の方も言ってる通り潜在空間が広すぎると思うのですが、
例えばimagenetの猫以外の画像を全てネガティブとして1クラスに押し込んで特徴って捉えれるのですか? >>817
普通にそれをやると犬以外のデータが圧倒的に多いので多分上手くいかない
何も考えず全て犬以外に分類するだけで正解率99.9%を達成できるので、単純に分類誤差最小化で学習するとそうなる
学習済みネットワークの出力を加工するかファインチューニングするのがいいと思う >>819
なるほど、、ためになります。
そういう実用的な事が書いてある書籍か何かありませんか?
ディープラーニングの本いろいろみて回ったのですが、
理論(数式)責めでドヤってる本か、
ネット見れば分かる程度の初歩的な実装方法書いたような本しかなくて困ってるのですが・・
欲しいのは数式でもチュートリアルでもなく実用性のあるものなのですが。
これ1冊あれば数式読まなくてもモデル選定からチューニングのコツまで分かるみたいな本ないですか? >>820
そんなうまい話ないぞ
学習したいデータや問題毎に色々な試行錯誤がある
仮に望むような本があって表面だけなぞったとしても同じ悩みにぶつかるよ 今CycleGANの学習をCPUでやってる
何時間かかるんだろう・・・。 ■ このスレッドは過去ログ倉庫に格納されています