【統計分析】機械学習・データマイニング20
レス数が1000を超えています。これ以上書き込みはできません。
>>772
すいませんちょっと質問の仕方を変えさせていただきます。
入力画像に対して「犬」、「猫」、「それ以外」の3クラスで分類を行いたい場合、
「それ以外」のクラスとしてどのようなデータセットを与えるべきでしょうか? cifar-10やimagenetの犬猫以外のクラスを与えたら? >>774
>「それ以外」のクラスとして
2クラス分類で
犬 1 0
猫 0 1
それ以外 0 0
とする。やったことないけど。 データセットって訓練データとテストデータに分けるんだな >>779
確率として解釈出来なくなるから
犬 100
猫 010
他 001
とすべき >>777
与えた結果よい成果を生んだ参考文献か何かはありますでしょうか?
直感ですと特徴を捉えきれないと思うのですが上手く作用したりするのですかね。
>>779
そんなラベルの付け方もあるのですか??
出力層の正規化はどうやるのでしょうか? >>782
文献は知らないけど
スクラッチで学習するんじゃなくGoogLeNetとかをファインチューニングしたらどうかな >>778
同じ話しを延々とやってるわな、根本的に向いてないわ ゴチャゴチャ言ってるけど、実験結果とか全然書かないんだもんw >>774
yoloとかssdなら犬検出、猫検出
どちらも検出しないで3クラス分類できるよ
それ以外のデータセットなんていらない 実験結果
CPU使用
MNISTでソフトマックス関数使ってやってみた結果
100エポック
92%
フィードフォワードネットワーク利用
300エポック
98%
MNISTぐらいならCPUでもそこまで時間かからないな
人工知能用にPC買う予定だけど
GPU使用が楽しみだ >>786
分類やりたいだけなのにわざわざ検出アルゴリズム持ち出すのって大仰過ぎないか 普通のニューラルネットで猫なら[1,0]、犬なら[0,1]と出力するように学習させれはどちらの特徴も持たないものは[0,0]と出力されるはずだろう >>789
そうなるかな。どっちかを出力するんじゃない。。。 >>787
適当に3~4階層で作ったので
MNIST87%行ったから
DLチョロいじゃんとか思って
Karasの他のapplicationに手を出したら
学習終わるまで300時間とか言われて泣きが入って
RTX2080Ti買おうと思ったら高過ぎワロタ どうも・・・。俺です
AIを否定する記事見てムカついた
絶対に女を裸にするアプリ作ってやる
クソが >>786
yoloから検出機能を取ったようなネットワークがあれば良いのですが・・
最悪全クラスに対して識別器を作ってもいいので、
犬の画像が入力された時だけ発火して1を返すようなネットワークでもいいのですがそんなのありませんかね?
>>789
多クラス分類のためソフトマックス正規化を使っているので0,0にはならないですね。
この例で言うと0.5,0.5になってくれると大万歳なのですが大体そうはなりません。
上の人が言ってるようにどっちか推して来やがります。
>>792
そこまで高いの買わなくても、
サブ機に1050Ti積んでますけど
inceptionv3の199層〜のファインチューニングでも
32000枚を100エポック回して大体5時間で終わりますよ
低価格でいろいろ試すには悪くない性能だと思うので検討してみてはいかがでしょうか。 1000クラス分類のImageNet使えば云いだろ…
それこそkerasやpytorchならなんの苦労もなく呼び出せるわ >>795
ソフトマックスを使う限り、出力が[0.5, 0.5]というのは犬の確率と猫の確率が同程度であるという意味しか持たない
同程度に高いのかもしれないし同程度に低いのかもしれないわけだが、この両者は分離できなければならない
ということで出力層にソフトマックスは使わずに例えば単にシグモイドを使えば出力される2つの数はそれぞれ犬・猫の確率を独立に算出したものとなる
適当な閾値を決めて一方のみが大きければ犬or猫と判定、共にゼロ近くならどちらでもないと判定すればいい
それ以外の中途半端な出力が頻発するならそもそも犬猫の特徴を学習できていないので出力層を工夫したところで無駄であり、学習データを増やしたり出力層以前の層の構造を改良するしかない >>789
犬猫だけで分類学習したネットワークにそれ以外のデータを入力することがナンセンス
学習した分布から外れたデータだから出力がどうなるかは分からない
犬でも猫でもない画像だとしても高い確度でどちらかに分類され得る >>798
最近傍距離でやったらそうなるよね.
本当にナンセンスと言うことに同意. >>795
元々の目的が人か否かを検出したいんだよね?
yoloを使えば良いと思うけど,それを使いたくないなら
>>760 の通りの方法でも汎化性能は悪くなるはずだけど行けなくもない(実運用はやめてね)
人のように見えるオブジェクトを誤検出するだろうし,人のポスターを人と判断するだろうし
多クラス分類にして,より確率の高い分類器xを選ぶじゃ駄目なの?2値分類は汎化性能という意味では極端に弱いから自動運転に関しては辞めた方が良いと思うよ >>760
言い忘れたけど,人以外の物体が何を指すのかよく分からないけど
人が写って無い道路の画像で学習させるのが一般的だと思うよ.
それ以外の画像だと潜在空間における人とotherの距離が不明になるし辞めた方がいいよ もう完全に教えてちゃんスレになったなw 立ち寄る必要なさそうだ 課題をただで人に聞きまくって何とかしたいという日本人のテンプレ。わりと良くいる AIっていかに論文をたくさん読んで、どれだけパクるかの勝負じゃん どんな分野でも基本は既存研究の発展で、ごく稀に全く新しい発明が登場するものだ >>797
なるほど、凄く答えに近いこと聞いた気がします。
アクティベートをシグモイドにするだけでその挙動が得られるのですか?
条件反射でソフトマックス使ってたので盲点でした。
少し試してみます。 >>798
なるほどそういうものなのですね。
しかし疑問なのが、どうして犬を検出する検出器は学習させることが出来るのに
犬の画像が入力された時だけ1を返すネットワークを学習させることができないかです。
明らかに後者の方が簡単なように思うのですが。。
お詳しそうなのでよければ教えていただけませんか? >>807
パラメーター変えてみました、別のに応用して見ましたということかw >>809
機械学習の一般論として、なにかを判定するには教師データとして正例と負例をおなじ数だけ与えるのが基本でしょう
「googleが猫を検出するDNNを作った」事例がよく取り上げられるけど、あれだって大量の猫画像とそうでない画像を与えている >>810
そこまでは言ってない。
ダークマターの質量が判りました。ってのより基礎研究の利用が応用に近いなあと >>809
前者は1000クラスの分類器がベースになってる
日常的に身の回りにある物は大体この1000クラスに含まれるので犬を(も)検出できる
当然その1000クラス以外が入力された時にどうなるか保証はない
後者は犬以外のどんな画像が入力されても0を返すのが難しい
これは犬以外に対応する潜在空間が圧倒的に広いから
でもまあ実用的には1000クラス分類器の流用で十分な気もするな >>805
> AIっていかに論文をたくさん読んで、どれだけパクるかの勝負じゃん
ということは、AIが何か知っているんか?
じゃ、AIとは何か言ってみ? 絵描き
「性的対象判定機にこの白黒の線画を判定させたらすごいスコアでた!」 >>813
なるほど。。
それなら素人考えですと、
imagenetの画像を犬とそれ以外の2クラスに分けて
2クラス分類で学習させたネットワークは
その検出器と比べて認識力ではほぼ等価と見なせますか? >>811
なるほど。
ではそのように猫だけを検出するネットワークを作りたいとしたら、
ネガティブとしてどんな画像を与えるのですか?
上の方も言ってる通り潜在空間が広すぎると思うのですが、
例えばimagenetの猫以外の画像を全てネガティブとして1クラスに押し込んで特徴って捉えれるのですか? >>817
普通にそれをやると犬以外のデータが圧倒的に多いので多分上手くいかない
何も考えず全て犬以外に分類するだけで正解率99.9%を達成できるので、単純に分類誤差最小化で学習するとそうなる
学習済みネットワークの出力を加工するかファインチューニングするのがいいと思う >>819
なるほど、、ためになります。
そういう実用的な事が書いてある書籍か何かありませんか?
ディープラーニングの本いろいろみて回ったのですが、
理論(数式)責めでドヤってる本か、
ネット見れば分かる程度の初歩的な実装方法書いたような本しかなくて困ってるのですが・・
欲しいのは数式でもチュートリアルでもなく実用性のあるものなのですが。
これ1冊あれば数式読まなくてもモデル選定からチューニングのコツまで分かるみたいな本ないですか? >>820
そんなうまい話ないぞ
学習したいデータや問題毎に色々な試行錯誤がある
仮に望むような本があって表面だけなぞったとしても同じ悩みにぶつかるよ 今CycleGANの学習をCPUでやってる
何時間かかるんだろう・・・。 cycleganは夢が広がるほど万能感あるけど実際はなかなか上手く学習しない >>823
形状を変化させるのは苦手みたいだね
テクスチャ系なら上手くできる
それにしてもCPUで1時間半やったけど1エポックも進まないわ・・・ >>818
そういうこと(猫画像とそれ以外画像とに分ける)で学習してる例が多いと思うけどね。ただ指摘があるように正例と負例の数は揃えないと。
あなたが実際にその分類器を使う段階になって、猫以外の画像としてどういうものが入力されるのか? それに近い分布のものを負例としなきゃ
「仕事ではじめる機械学習」あたり読んでみては(自分は読んでないけどw) >>821
まあそうですよね。
でもいかんせん素人だと何をどう試行錯誤していいかすら分からないので
行き詰まった時に試してみるチェックリストみたいな感覚で使いたいのですが・・ >>825
ありがとうございます。
入力に近い分布のものなら1クラスにまとめて放り込んでも大丈夫なんですね。勉強になりました
本もチェックしてみます。 誰かコンサルしてあげなきゃ。素人が機械学習使えないだけなのに機械学習自体が評価されなくなる未来が見える >>820
数式から逃げるな。
機械学習の数学程度でうろたえてるようじゃ人生きついぞ 正例と負例の訓練データ数が全く桁違いの場合って割と多いと思うんだけど
例えば機械の故障判定とか製品の不良判定とか、正常データが大量にあって異常データは僅かになるのが典型的
その場合全て正常と判定するモデルの正解率は高くなるが、混同行列見たりF1値を評価指標にすればそんなのは非常に悪い学習結果と判断できるから排除できる Macbook ProのCore i7 CPUで半日やったが、
1エポックしか学習できなかったわ
Geoforce GTX 1080 Ti買うことにした
27万ぐらいするけどもっと安く買えねーかな MacBookProなら一応グラフィックカード付いてるはずだけど呼び出せてなくない?
2016年モデルだけどついてるよ、スペックはお情け程度かもしれないけど >>830
理解出来ない訳では無いですけど無駄手間じゃないですか?
ただツールとして使いたいだけで理論を開発しようって訳ではないので(そもそも数式には興味ない)、
数式見るのは研究者がやればいいと思うのですが。
ガウシアンぼかしの式すら知らない素人でもリファレンス見て試行錯誤で華麗にフォトショップ使いこなしますよね?
あんな感じに早くなればいいと思うこの頃です proでもディスクリートGPUが載ってるかどうかはモデルによる。 >>834
それはない。数式読まずに避けてたら本質は理解できない 特定のものを認識させて物理空間上の位置(座標)を出力値とする場合って
SSDやYoloのような物体認識を使った方が早いかな?
>>883
882が何のライブラリを使ってるか知らんけど、tensorflowのMac版はCPUしか対応してない 最先端の研究結果の数式が必ずしも理解できる必要はないが
機械学習の基礎になる線形回帰、ロジスティック回帰、ニューラルネットワークの全結合層の原理程度は分かっていなければ厳しい
これが理解できていなければ自分の手持ちデータで何かやろうにもどんな手法を使うべきか見当も付けられず、
名前を知ってるものを適当に使ってみて精度が良かった・悪かった、と錬金術的にやるしかなくなる 機械学習ではな
自分よりお利口なもんはできない
まず自分がなんでバカで頭悪いかを考えたほうが有意義だからな
バカのくせになんで自分よりお利口なもんができると思うのか
そこが不思議でならない バカでなければ
どうやったら自分が効果的に学習できるか考えるからな
自分が効果的な学習ができないのに
計算機で効果的な学習とかまずムリ >>834
フォトショップを知識がなくても使いこなせるのはアルゴリズムが成熟していて大半の処理は裏方で自動でこなしてくれてるから
機械学習では自動で問題毎に自動で最適な処理をできる技術がまだ確立されていないから、ツール的に軽く触っただけで良い結果を得るのは難しいよ 知識って。。。
画像処理ソフトとか画像データのピクセル加工やってるだけやんけ
で、見た目がそうなってる
とりあえず見た目こんな感でいいや
コレを機械学習と同じと思ってる時点でもうね >>836
本質を理解しようとはあまり思っていませんね。
とりあえずツールとしてラクチンに使えたらそれだけでよいので・・
>>837
そうだったんですね、自分winでブートしてるのでそれは知りませんでした。
>>838
そうなんですよ、そこなのです。
だから手持ちデータとやりたいこと等から使うべき手法やモデルを教えてくれる本とかがあればいいんですけどねえ >>842
そうですよね。
だから最適な処理を見つけるためのバイブル的なものがあればなあと思っています。
>>843
本質的にはあまり変わらないと思うのですが。
上の人が言っている通り自動化する技術が確立されていないだけで、
学習自体はデータに対して同じ処理を繰り返してるだけですし、
フォトショップでいう見た目=テストaccなりlos、という感じで使えても悪くないと思いますし
最近でいうならそれこそGANなんて見た目だけの話なのでとりあえずこんな見た目でいいや、で解決すると思います。 それはそうかもしれないがそうだとするとプログラム板の話題ではなくなるな >>845
>だから最適な処理を見つけるためのバイブル的なものがあればなあと思っています。
これは最先端の研究なので論文を読んでパラメータの設定はどうするとか学ぶ必要がある.
いくら機械学習の出版が早いとはいえ待ってたら2,3年は遅れた知識になる.
後結局手法はAutoMLとかで大体今でも自動化できてるんだけど,データから推定した結果の解釈とかの問題もあるし,
全部が全部バイブル通り行くとは行かないのが現実.「全てのモデルは間違ってる.完全なる解釈はない」というのが統計学の鉄則だよ 赤池先生の経歴をと尊敬を持って機械学をやるべきだと僕は思ってる.
汎化誤差の最小化だけじゃあまりにもつまらないし.最近のAmazonの差別AIみたいなのができるのが落ち.
未来はどうなるか分からないけど数式から逃げることはできないと覚悟した方が良いと思う. lossの定義の仕方さえ分かれば良いだけの話だろ
昔なんか自動微分を手前で実装してたんだぞ >>833
俺のは2018モデルだけどNVIDIAだったかな?
あと
2080 Tiの方がコスパ高い
https://i.imgur.com/SfoNEyI.png あー最新版TensorflowではmacのGPUサポートしてないわ courseraの"How to Win a Data Science Competition: Learn from Top Kagglers"っての始めたけど、
これはムズいわ
まず、ロシア人が何を言ってるのか聞き取れない >全部が全部バイブル通り行くとは行かないのが現実.「全てのモデルは間違ってる.完全なる解釈はない」
ほんそれ >>848
最先端のネットワークはモチロンそうでいいと思うのですが、
DropoutやらReLUとか組み込んだCNNならもう流行りだして2,3年は経ってると思うので
それくらいの構造のCNNでimagenetのような分類タスクしようと思った時にモデル選定とかどうチューニングしたらいいとかある程度まとめてくれてるような書物があったらいいなと思いました。 あれこれ楽すること考える前にCourseraの有名な機械学習コースのシラバスの各項目をざっくりとでも他人に説明できないレベルならCourseraやるのが一番手っ取り早い じゃ、chainerの話でもするか!
日本の会社なのに公式に日本語ドキュメントがないやん、とか CEATECでPFNが出してた片付けロボットすごいよな いい感じのクロスモーダルモデル考えたけど適用事例が思い付かない >>866
物体検出、物体判別、位置特定は他の所でも出来るんじゃね?
その正確さとかが実用になるかどうかだろうけど >>868
それらを現実世界のロボットの動作に結びつけるのは難しい
あと口頭で指示も出せるらしい PFNロボのアピールポイント:
・衣類の画像認識ができる(衣類、布は置き方によって形状が大きく変わるため難度が高かった)
・対象によって掴む位置、掴み方を変える(けん玉は棒の部分を掴むなど)
・日本語の命令に従い行動できる
・ラフな言い方、ジェスチャーを認識できる(指差しながら「あそこに片付けて」で認識できる)
・展示会の騒音、変化する照明環境で1日連続稼働できる どこもかしこも画像データを扱う事を前提として文章書いてるから嫌になってくる 二ーズは疑問だけど、頭の固い機械制御の業界には良い刺激 メリットが分かりやすい分野で教科書書いたら、参入者が増えるから先行者は嫌がるもの 先行者が新規参入嫌うって、オープンソース化で新規参入増やすことで急速に技術の新陳代謝促すことで発展しているIT業界を逆行しているようだ >>876
人の作った定石を覆す一手が生まれる可能性がある >>876
人にしか出来ないと思われていた高度な処理が可能になった ゲームで定石以外の手を打つAIはいるけど
脳外科手術とかで定石以外の手をAIに指示されて
実際その通りに手術出来る医者っているのかな 手術の機械学習って学習データどうするんだ?
医療では当面は診断用途だろう
怪しい所を自動ピックアップしてくれるから楽になる 全く同じ条件の学習が上手くいかなくなったんだけど原因は何が考えられますか
1回目やったときは70epochでvalのaccが.95くらいだったのに
2回目やったら1epochからずっとvalのaccが.65前後のままtrainのaccだけが上がり続けるから過学習してると思うんですけど
実行毎に過学習起きたり起きなかったりとかあり得ますか? みんなすげぇなぁ
機械学習の本まずは1冊やり終えたけどここで話されてる内容ほとんど分からん >>883
inceptionv3のimagenetです データ分析の基礎的な部分をちゃんと身につけないとと思って統計の勉強始めた
学のある人なら当たり前に知ってる事なんだろうけど自分には知らない事ばかりで結構面白いって感じた
多分最初だからこう思うだけかもしれないけど >>884
特にディープラーニング関連は本になる頃には陳腐化してるからなぁ
ある程度基礎を勉強したらネットで解説記事とかトップカンファレンスの速報まとめとか有名な論文(の解説)とかを読むと良いかも >>884
ここで話されてる内容はもうかなり古くて、だからレスする人も減ってる 統計は高校で習ったから高卒「でも」充分理解できるもんだと思ってたが
最近の高卒は統計習ってないのもいるんだね >>890
統計っても機械学習だとロジスティック回帰とか主成分分析とかカーネル法あたりだろう
高校じゃまずやらない kerasでGPUを使う時に
最初のプロパティみたいなので
totalが4GBあるのにfreeが3.2GBしかありません
4GB全部をkerasで使うためにはどうすればいいですか >>892
>最初のプロパティみたいなの
これって何? 三宅陽一郎は日本のゲームAIの権威と言われてるそうですが本当なのでしょうか? クラスタリングって教師ラベルがあるデータに対しても行うことってあるの?
職場の人が教師ラベルあるデータに対してクラスタリングするって言ってたんだけどそれは分類とは違うのかな?と思って聞いてたんだけど自分は知識がないから知らないだけで主成分分析みたいに探索的に何か見つけるために使う事も出来るのかな? アホたちは
いまのいんちきNNモデルをAIと呼称してんのか >>900
その場合クラスタリングとは呼ばないような ラベルが既知なのにクラスタリングっていうのは、聞いたことないしやる意味もないのでは。だってデータの距離空間が定義されてるのにわざわざ別の部分集合に割り当てる意味が分からんな。
次元削減なら分かるけど、クラスタリングなんでしょ? クラスタリングではなく分類の手法として教師あり学習ではk近傍法ならあるけど >>906
学習の時は計算量かかるけど使うときは大した事ない
理論保証とブラックボックスさだと思う >>905
すべてのラベルが既知ならそれはしなくない?
上の質問者の意図が全くわからん >>900
上の人が言うように、基本的にその場合クラスタリングとは呼ばない。クラスタリングは教師なしだから。
それで質問に答えるとしたらあるデータX(Xはベクトル)にラベルがあるとして、X以外のデータが入力されたときに例えばaとする。そのaとXとのユークリッド距離を測り(k近傍法)、どのx_iと近いのかを判定したりはする。 https://teratail.com/questions/152987
今CNNの学習をしていて、
このページの1つめの結果画像のような状態なのですが、
原因は何だと思いますか? Jupyterってジュパイターと発音するんだな
pythonのpyなのは分かってたけどなぜかジュピターって読んでた こういうのに最初に大金を出した人が美術史を作っていくのや まあ、AIはお金になるという実績を作ってしまったな >>917
一目瞭然じゃん、教えて欲しいのか、試してるつもりなのか。 train か少ないとか、val と train の性質が違うとかもあり得るが >>919
これも過学習なのですか?
ページの人が答えてるように下にあるresnet34の結果が明らかに過学習なのは分かるのですが
こんなに振動する過学習もあるのですか? あと、accがほぼ100%近いのにlossが10もあるのが理解出来ないのですが
こんな状態あり得るのですか? >>795
>>>792
>そこまで高いの買わなくても、
>サブ機に1050Ti積んでますけど
>inceptionv3の199層〜のファインチューニングでも
>32000枚を100エポック回して大体5時間で終わりますよ
>低価格でいろいろ試すには悪くない性能だと思うので検討してみてはいかがでしょうか。
ありがとうごさいます
そこそこのグラボ買ってみます NNは最小限の構成から始めて
学習曲線を確認しながらレイヤー数を増やして複雑にしていくのが常道だから
まず3層ぐらいの単純な構成だとどうなるのか見るべきじゃないのかな
teratailの例を見れば少ないレイヤー数なら普通に過学習で見られる学習曲線なわけだし
いずれにせよどんなデータを使って何を分析しようとしているかもわからない
ネットワークの構成もわからないで学習曲線だけ出して的確な回答を期待する
というのも無理があるかと でかいネットワークで学習するとむしろ汎化性能が上がるって説もあるよね むしろ期待通りの結論に到達するように
学習させてるのがいまのウンコAIだからな むしろ期待通りになるように学習させないでどうするんだよw
間違った教科書で勉強したら間違った答えを出すだけ つまりオマエが作ったAIは
オマエより賢くなることはない
アホのまま 教師あり学習なんだからそんなの当たり前やん何言ってんのこの人 作り手の想像を超えた知性が得られたとしてそのことを数値で評価することなど不可能なんだから、そもそも作成に成功したかどうかすら誰にも分からないわけで >>936
強化学習なんかだと、例えばゲームで人間の思いもよらない戦略を学習する事もあるし、スコアとかの客観的な評価軸もあるぞ 強化学習は報酬を与えるルールさえ決めれば後は膨大な計算コストがかかるだけで結果は決まっているわけだから作り手を超える賢さを得たと言って良いかどうかは微妙なところ 賢さの定義などないけど>>934が賢さについて言ってたから使ってみただけ この分野、売り逃げがしにくい。
それが良さでもあり悪さでもある 本当に初心者ですけど質問です。
他クラス分類してて線形モデルを考えてるんだけどグリッドサーチしてCを出すプログラムを書いた。
そのプログラムを数回走らせると毎回違うCが出てくるんですがそう言うものですか?
ちなみにaccuracyはおんなじ値が何回も出てたまに低かったり高かったりします。 >>942
プログラムがどうなってるか分からないけど(毎回乱数で変わる値をしようしてるとかあったら)、普通は何度実行しても同じ結果正則化パラメータCを出力しなければいけないと思うよ。
プログラムを見て乱数で設定してるところがないかを確認してみては >>945
乱数シードは固定してないです
固定してなくても同じ値が出るってことですか? >>946
固定してなければ違う値が出ると思う。固定してればもちろん同じ値が出ないとおかしな話だとは思うけど。。。
(そういう乱数の次元の話じゃないかなと思ったので) >>947
研究で、もらったデータセットでやってるのでなんかおかしいのかなと思ってました。
irisのデータでも同じような挙動だったので関係なかったです。毎回違う値(振れ幅もバラバラ)なのは普通ということなのですね。 機械学習知らん人に説明する度にAIって便利な言葉だと実感する
最適化じゃなくて学習とかクッソ曖昧な言葉で納得してくれて本当助かる 学習って用語廃止したほうがいいわ
kerasみたいにfitって言えよ >>951
「餌を与えると勝手に学習してくれる」っていうと素人にも分かりやすい >>951
本当に「最」適かどうかは判らないんじゃね? 「AIが考える」って、使っていて違和感を感じる表現だけど
そう形容するのが適切なんだな 適当な説明すると勝手に妄想を暴走させてしてしまう人もいる 椅子を学習したら切り株に座れる機能がある事も分かるAIはよはよ そんなの椅子の認識のさせ方次第でどうにでもなるだろ
背もたれのある普通の椅子しか学習させなければ切り株を椅子と認識できるわけないが座れそうなものを片っ端から学習させれば何とかなる ラベリングは誤魔化すために重要。
トヨタのTNGAとか便利便利 >>959
これはただの例で汎用的にやりたいんです。
シンギュラリティ! 切り株画像に「イス」ってラベル付けなくても
切り株に人が座ってるラベルなし画像から推測できるぐらいにはなって欲しいね 生まれて初めて切り株を見た人間でも、切り株に椅子としての機能を見出せるだろうけど、これは「座れそう」→「座れた!」という環境とのインタラクションがあるからなんだろうか
前にNHKの番組で東大の松尾先生が「体を持たない知能は存在するか?」的な事を言っていたな >>961
だからほんなら汎用的なデータ食わせろって話ですわ
まさか学習データが画像しかないとか思ってるわけでもあるまい >>965
データがない未知の場面に出くわしても人間みたく持てる経験と知識を応用出来るかって話だろ
データさえあればって身も蓋もない話 >>965
そうなのね。
昨日辺りの日経新聞に書いてあったのよ。 >>966
切り株に座れるか判定の可否を議論してる時にドラえもん作りたい話されても知らんがな >>968
切り株はあくまでも一例だって>>961が言ってるやん >>961
そしたら身体持たせて学習(実体験)積んで
痛い目に合わせないとダメやろ 産まれてすぐからちんちんあったけど生殖に使うものだって気付いたのは十年以上経ってからだしな >>969
意味を把握した思考もどきがやりたいなら
多分、言語処理のKingとQueenの話の方が例題として適切
切り株と椅子だと形状の特徴で学習してるだけぽい 質問です
評価基準をaccuracyでやってるんですが、交差検証するたびに60%〜80%の幅で出ちゃうんですが、こういうときは例えば10回プログラム走らせて平均取るみたいな評価をすればいいですか?他に評価方法がありますか? >>969
別に例なら切り株でもベンチでも何でも同じやがな
欲しいと想定される機能を実現するため相応のデータ(センサ)と学習は必要やろが
生まれつき視覚以外の感覚がない人間が椅子ばっかり教えられて果たして切り株に座れると思うかどうかや
椅子の画像データ学習させるだけでドラえもん作りたいくらい頭クルクルパーなこと言ってるの理解してるんか >>975
学習終了後の評価でそんだけバラつきあるならちゃんと収束してるかとかデータ数大丈夫かとかいろいろ見直してみたらどうじゃろか >>977
データ数はどうにもならないんですよね。自分でも少ないってのは分かってるのですが。
収束してるかどうかってのは、線形svmでやってたので怪しいかもしれないです 質問です
人工知能用のPCを買おうと思っているんですが、
Linuxがベストとして
クソOSと言われているUbuntuでいいんでしょうか?
Fedoraのほうが評判良いですが・・・? 両方試してみたらいいのでは
LTS版があって情報も多いUbuntuが無難な気はする。 んなもん買うよりawsかgcpで試してみたらいい。 >>979
どのディストリでも大して違いはないと思いますが >>979
無難なの選んどけばいいんでない
むしろ悩みどころはスペックとかどのライブラリ使うかとかでは >>979です
皆さんご回答ありがとうございます
わかりました
とりあえずUbuntu使おうと思います
PCのスペックはだいたい決まっています
ライブラリは主にTensorFlowを使います 安w
Xeon Phi? 7210 (64コア) \3,585,600 >>984
> んなもん買うよりawsかgcpで試してみたらいい。
横からスマンけど、研究費が無尽蔵にあるならaws、gcp、またはazure
でもいいけどさ、俺のように金がなくなってすぐ頓挫となるぞ?
データ入れて回してたらすぐ100万使っちゃうから。
PC買ったほうが絶対にいい。 すぐ100万てどういう使い方してるんだよ、16gpu でも使ってるのか 素人がGPU大量にぶん回している場合、機械学習の理論面をしっかり学習すればかなり無駄なデータ・処理を削れることが多い てかgcpなら1日毎でいくらかかってるか見れるわけだし、とりあえず3万円分でやってみたらいい。
費用感を把握してからgpuハード買うってのでも別に遅くはないだろ。 実際デプロイしたときに
実行前にプログラムスキャンして
あなたのアルゴリズムは最適化が足りません
提出しなおせとか
このまま実行すると少なくとも100万円以上になりますが
よろしいですかとか逝って欲しい このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 88日 19時間 44分 52秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。