【統計分析】機械学習・データマイニング22
■ このスレッドは過去ログ倉庫に格納されています
機械学習とデータマイニングについて語れ若人
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング21
https://mevius.5ch.net/test/read.cgi/tech/1541309676/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured >>474
大体の翻訳はもうできるんだけど、肝心なところで完全に逆の翻訳をしてくれる時がある
あれは本当に困る 概念の定義を与えないといけないが、ひとまず「もの・ことをどうカテゴライズするか」が概念だとしてみよう。
例えば英語で「私」はIしかないが日本語には「俺、私、わたくし、我輩…」と多数存在する。
どこぞのエスキモーの種族の言語には雪の状態を表す名詞が30以上あるとか。
そういう「何をどう区切るか」が概念なわけだ。
で、ロボットが(おおまかな)人間の間で共有されている概念とはまったく違った概念体系を習得してしまうと、それは人間からは理解できないし、もしかすると人間の役には立たないかもしれない。
それを避けるためには、赤子を育てるがごとく人間社会の中でちまちまと人間の手で育てていく必要があるのではないか…とね。 >>477
それを解決するために「教師ありデータ」という概念があるんだろ。 対象を見たり聞いたりセンシングして
それを目的に合わせて分類した結果が概念じゃね?
分類するときの判断材料が特徴
センシング、特徴、目的、概念が関係する
概念と目的が妥当なら
センシングと特徴は人間と違うものでも
問題ないんじゃ無いの? 赤子からちまちま勢って総じて昨今のAI技術知らない無能だよな。 AVの動画のカットから女優の名前とか作品名を教えてくれるツールが欲しい
出来ればまんこから女優が判るとか
究極は女優からまんこが判るとか
あったらいいな >>482
スケベ博士
で検索
>まんこから女優が判る
>女優からまんこが判る
これはちょっと厳しそうだ 467
既に知ってる人が観て自分の知識で補完しながら判る(というより変なこと言ってるなーと確認)だけの糞動画
知らない人はこんなの観ても判らないだろうから役に立たない
しかも読んだことない本を他人に薦めるとか基地外レベル
不動産とか詐欺師要素満載 >>479
自分はそもそも >>457 からの流れで書いてるから、いまのディープラーニングブームがこのまま進んで、AGI(汎用人工知能)へ発展していく可能性はあるか? という話をしている。
その観点から言うと、人間が教師データをすぐに与えられるような問題はすでに解決されつつあるし、今回のブーム内で遠からず解決するでしょう。
でも、AGIに求められるのはアブダクション(仮説形成)で仮説を立ててそれを演繹的に適用していくようなことだから、特徴量が違ったら(センサーが違ったら)その過程で人間とはまったく違うものになっていったりしないのかな? と。 教師データを与えられないような問題とは何かというと、例えば、対話破綻検出チャレンジで、
人間とBotが雑談対話したログについて、Botの発言が「破綻していない、破綻している、どちらともいえない」で○×△のアノテートを付けた教師データを用意したわけだけど、
複数のアノテータ間で○×△がぜんぜん一致しない、みたいな。 このスレにTPU使える人ってどれぐらいいるの?
TPU使える人はレスして欲しい
俺?使えない。勉強中。 このスレでDQNて見るとDeep Q Networkかなって思っちゃう Deep Que Network、つまり超遅延ネットワークか >>486
ランダムとか分布に従って○×△を出力すればいいのでは?
分布を学習するくらいかな particular convolution をやろうとしてるけど、GPUよりTPUの方が遅くなってしまう。
バッチサイズの上手い上げ方が分からん。。。 >>443 >>442 >>439
東ロボは失敗したわけではない。
Google最新技術「BERT」と「東ロボ」との比較から見えてくるAIの課題
https://hbol.jp/179474 >>493
サイドバーに安倍総理と統一教会の関係とかあるのがなぁ
信憑性低すぎる >>494
ハーバービジネスっって、扶桑社系列でちょっとオカルト的な色彩と政治色があり
あの菅野完とか持ち上げたりというメディアですよ。
信用して読む雑誌じゃ〜ない。ま、宝島みたいなものかな。
名前からハーバードビジネスに勘違いしそうだけど、まるきり関係ない。 >>495
それは左巻き洗脳にだまされてるよ。
統一教会は中東で人質になった人などに関係がある、西早稲田の
教会などとの関係が深い。
日本ではいわゆるリベラルグループに見せかけてる。 >>496
やっぱりそういうサイトだよね、ありがとう >>497
安倍の親父の岳父は岸信介だから洗脳も何も
ないじゃん。 kaggleは成績ランキング見れないんだな
見れるのは上位三人だけか。
外人じゃ仕事ふるの面倒くさいし、これじゃ仕事がくるわけないな kaggleのタイタニックが80%行かない
webで80超えたって行ってる人たちとそんなに変わったことしてないはずなんだけどな
100%がチートなのはすぐわかるけど、90%行くのも信じられない 未経験からAI人材になれる
Neural Network Console スターターパック19万8000円は買いですか?
http://www.itmedia.co.jp/news/spv/1902/04/news003.html それを使いこなせてもAI人材ではなくNeuralNetworkConsoleという内部的にディープラーニングを利用したソフトウェアのオペレーターにしかなれないだろ >>503
今はまだ時期早々って感じ
「工場の傷の検品」ぐらい超簡単な判別機ぐらいなら作れると思う
ただ、判別した結果を別のシステムにつなげるのはハードル高そう
>>504
日本人が使うと、エクセルがAIに変わるだけのような気がする
AIよりも手作業の方が早い、みたいな >>505
時期尚早かも知れないが今のDeep Learningは所詮はこんなもんだからいいんじゃない?
コンポーネント組み合わせているだけだしね
途中の出力結果をモニタリングできればTensorboardの代わりになる >>506
そうだねぇ
今は結果がでなくて良い、将来の投資と考えれば20万は全然アリだろうね
恐らくそういうのは主流になっていくから、良いスタートダッシュが出来ると思う
結果を求めて20万を投資するのは止めたほうが良い >>503
その金額だとGoogle colabを使った方が良い。 >>508
いやいや本1冊とGPU1つの方が全然いいだろ。
5万円で終わって1から10まで全て自分でできる。
そのサービスが何をやっているかは動画見ればもう分ったろ?
しかも19万円「から」って何だよw youtubeで
アメリカ VS 中国 "未来の覇権"
を検索。 >>509
要はこのサービスはpython使えない人用ってことでしょ
python使えればGPUで済むけど、
大企業になるほど企業の担当者がpythonから覚えるってのは時間的にも人件費的にもコストが高く付く >>511
大企業なら社内で研修とか外部に元々委託している研修とかあると思うけどな >>512
上場クラス・事務がメインの銀行なんかは絶対にやると思う
効果半端ないからな
小売とかは導入が遅そうだ >>514
Stack GANのStage-1だから低解像度なのでは? >>511
論文読んでSEnet組むような場合にMATLAB/SIMLINKのようにGUIで線を伸ばせば実装されるくらいの出来であればpython使いでも有用かな
もしGUIで組んでpythonコードやC++コードが出力されるなら価値はグンと上がるけどどうかな
価格設定は高いように見えるけど、このレベルのソフトウェアはいくらでもあるし、お試しで導入するところはあるだろう dcganとかのGANSって誤差がどんな推移すればいいの?
調べてもみんな言うこと違っててわからん
やっぱり生成画像みて判断するしかない? >>517
誤差推移っとかもう職人ワザ
極論
>生成画像みて判断
これで何も問題なければ良い GANやってるのかな?
多分、generateする方よりも検出する方が強すぎる状態になってるってこと。
つまり失敗しとるってことだね。 >>521
ありがとう!
「奇跡の設定に成功してしまったのか!?」なんて考えていよ!失敗だよね、うん >>517
wasserstein ganは誤差が綺麗に収束して学習が上手く行ったか分かりやすいのでおすすめ >>518,519,523
やっぱり実際に画像みて判断するしかないか
あと気になってるのはたまに誤差が負の値になるんだけどありえないよね?
なんで負が出てくるんだろ 前に書き込んだモザイク消しを試そうとしてた者だけど、ぼかしよりはマシな感じなのができた。もっと学習させれば実用化までいけそう。 みんなKaggleとかSignateやってんの?
Signateは賞金安いのに権利全部よこせとか、優秀だけど安く雇える学生だけ探してるわとか、
訓練画像20枚な、とかで絶望しか感じないんだが >>527
「わいせつ物頒布罪」はあるが、このプログラム自体はわいせつでもなんでもない
しかし、モザイク付きの画像・動画とセットで配布した場合、
それは単に特殊な圧縮形式と看做されるかもしれない
どうなるかは其の時にならないと分からない 納得はできないが、重み付きのモデルデータ配布はグレーな気はする。
学習装置のみ配布だったらクリアだろうよね。 よく考えたらモザイクなんてpix2pixで簡単に実装できそうな気がしてきた >>528
たまにやるけど最適化競争より面白いモデルや新しいモデルを試してる感じ
良いスコアが出そうなら頑張るけど工数はそれなりにかかるんでね
それでもSIGNATEを日本の企業はもっと活用すべきだと思うけどね
同じ仕事を外部に発注したら賞金の10倍以上の予算使ってもコンテスト以上の物は絶対に出て来ない
コンテスト終わったらデータ全部消せとかプログラムの版権寄越せというなら上位以外にも賞金出さないとダメだと思うし、いろいろと改善の余地はあるんじゃないかな >>531
昔モザイクかけるFLMaskの作者が捕まってたよね
あんまりきわどいとこで目立つと何されるかわからん モザイク除去はcyclegan出て真っ先に試されてたな
やはりエロは技術を進める エロ系ってコーディングしてるうちにムラムラしてくるのが厄介だよね 好みの画像だけで学習させれば、微妙な画像を良い感じの画像に変換できるんだよな。
マジでAVやIVがモーションデータみたいに使われるのが普通になっていくかもしれん。 やっぱり今のディープラーニングはGANSが流行ってるのかな
やってる人多いね GANは正直収束させるのが激ムズだけど、出てくる画像とか見てると面白いんだよね。 深層学習ってなんでちゃんといい解求まるのか不思議
自分でコード書いて実行してちゃんと学習してるのみるともっと不思議
たまに盛大に失敗するけど、どういうときにちゃんと学習するのか経験と勘が必要だなって感じる >>536
そりゃーただの復元可能なマスクだからな
あんまり意味ない・・・
>わいせつ図画公然陳列幇助 >>542
楽しいっちゃ楽しいんだけど、デカイ事やろうとすると2,3日かかるのが辛い
もっとテンポよくやりたいけど、精度が下がるんだよね tensorflowの公式サイトがIEやedgeだとレイアウトがうまく表示できないようになってて笑った
chrome以外のブラウザでは観るなってことか Microsoftは老害と成り果てたか
この前のアプデでレジストリいじってもCortana消せなくなったしよぉ 参考コード探してるんだけどKerasがなかなかなくて辛い
ライブラリシェアはtensorflow以下はどの程度なんだろ >>511
分析だけならデータ放り込めば良いだけのツールが有るし、
機械学習でモデルだけ作っても実装にはPGが必要なので、
Neural Network Consoleは中途半端
パラメータを自動で最適化してるらしいが、
同一の学習データに対して、他のライブラリの方が明らかに良い結果が出てた >549
知らずに言ってるのが良く分かるぞぉ〜
大抵は両立している。kerasで学習中にpytorch、その逆、等 >>548
構造の自動最適化はちょっと羨ましい
自分で書くと面倒なんだよね
交換可能なモジュールのグループ化とかね
みんな自分用の最適化ツール作ってるのかな >>545
GoogleはChromiumに仕掛けしているようで、たとえばYoutube
なども稼働するOSの上で弄っているらしい。それはChromiumで吸収してい
ようで、たとえば各種のOSじょうに独自のブラウザ提供しYoutubeも支障なく
見られるようにするには、一つ一つ別途に弄るか、Chromiumをレンダリング
エンジンに使うかの選択が必要になるようだ、マイクロソフトは今後の方向と
して主要OSにさまざまなものを提供する方向にあるが、その際に開発負荷を
減らすためにレンダリングエンジンをChromiumに変更した。
とのことらしい。
これと同じようなことだとしたら、Vivaldiで動かしてみたら使えるかも
しれんよ。暇だったら試してみて。 >>542
>深層学習ってなんでちゃんといい解求まるのか不思議
解が求まっているっというわけでもないんだが
ま、求めているものに近いものが他より効率よく出力される
と言った方がいいのかな?
だから、深層学習も、自分で出した結果を見て
「真相はいかに?」と思ってんだと思うよ >>542
誤差曲面には局所解や鞍点が無数にある筈なのにSGDのような単純な方法で良い解に辿り着けるのは長い間謎だったけど最近になってこの辺が理論的に解明され始めてる バッチサイズを大きくすると学習効果が低いというのもよくわからん話だな。
これって人間でいえばドリルを一気にやってから答え合わせするよりもちょこちょこ
答え見て解答してった方が勉強効率が良いってことだよね? >>558
バッチサイズの大きさと学習効果については相反する議論が展開されていて、バッチサイズが大きくても学習率を下げれば性能は変わらないとする論文がある
更新分は
(epsilon / batch_size) * (sum of grad)
なのでbatch_sizeを倍にしたら学習率を半分にするといい
勾配分だけがbatch_sizeの影響を受けるので、モデルおよびデータ次第ではどっちにも転ぶことになる 最近勉強し始めた超初心者だけど、なんとか学習モデル生成出来るとこまできた
(ほとんど参考サイトのコピペだけど…)
が、マシンスペックが全然足りなくて学習が進まない…
↓この参考サイトの著者は100epochsで12時間かかったらしいが、俺は7時間かけて2epochsだけ
http://app.m-cocolog.jp/t/typecast/603293/510034/88662045
「ちょっと自分でモデル作って味見してみようかな」っ人には着手しづらいなぁ >>560
cpuで動かしてない?
tensorflowがgpuで動いてるか試してみて
from tensorflow.python.client import device_lib
device_lib.list_local_devices()
https://qiita.com/yt6t6t/items/5df4a83f3223c6a8c600 >>560
そこそこ良いGPUないと面白さは半減だねぇ
Google Colaboratryでもいいけど長い時間の学習は処理を分割させる必要があるし、画像系はデータが巨大になりがちだし、趣味でやるには少しハードル高いよね ColaboratryのGPU性能はGTX970ぐらいだったかな
結構微妙な性能な上に、制約が多いから買ったほうが良い
TPU使えるなら凄いんだけど、俺は無理だった ColaboravoryでTPU使うのにただ切り替えるだけじゃだめなんだよね
あれ使えればかなり楽になると思うし体験してみたいけどそれ用にコード変更しなくちゃいけないんでしょ >>564
一から書ける技量が無いと対応できない
githubに転がってるやつをちょっと変えれる程度じゃ無理
データも容量的に厳しいので、googleドライブにおいてそこからapiでひっぱってきて・・・とかなり面倒
その内ラッパーとか出来ると思うけどね >>565
そうか残念
拾ったCycleGANのコード動かそうとしたら重くなって落ちたからTPUでやってみたかったんだけどね
ところでcolaboratoryでコードの出力欄に四角いダメ顔マーク出てくるのはなんの意味なんだろうか
メモリ不足? >>553
それ使ってる環境しだいだよ。胆くするブラウザ使ってるから。 >>563
嘘乙 Tesla K80 12GBだろ。GTX970の速度じゃない事くらい試せばすぐ分かる。 >>561
cpuでやってました!
gpu版になんとか設定したものの新たなエラーが出て四苦八苦中ですw >>562
5年くらい前に組んだPCでゲームはやらずマルチディスプレイが出来ればいいので、安物グラボ積んでます…
玄人志向GTX650で当時5000円ぐらいだったような
https://i.imgur.com/CaDWMha.jpg >>569
こないだ暇だったからmnistで計測してみたから間違いない
スペックも実測値も、ほぼGTX960〜GTX970当たりの性能
K80のGPUが1/2になる事を考慮すると、スペック的にも大体合うはず >>572
それはすまない。GTX1060Tiよりも速かったので、俺の組み方が悪かったのだろうな。メモリが少なかったせいかもしれない。 mnistとかなんのベンチマークにもならんわ。imagenetくらい回してくれ。 GPUに辿り着く以前にラーニングの前処理で異様に時間がかかる
ひょっとしてcolaboratoryのCPU1コア?
データ読み込んで特徴量増やしてるだけなんだが・・・ >>575
zip解凍も結構時間かかってるよ。CPUやファイルアクセスは貧弱っぽい。 ■ このスレッドは過去ログ倉庫に格納されています