【統計分析】機械学習・データマイニング19
■ このスレッドは過去ログ倉庫に格納されています
機械学習とデータマイニングについて何でもいいので語れ若人 ※ワッチョイだよん 次スレ立ての際は、一行目冒頭に !extend:on:vvvvv:1000:512つけてね ■関連サイト 機械学習の「朱鷺の杜Wiki」 http://ibisforest.org/ DeepLearning研究 2016年のまとめ http://qiita.com/eve_yk/items/f4b274da7042cba1ba76 ■前スレ 【統計分析】機械学習・データマイニング17 http://mevius.5ch.net/test/read.cgi/tech/1502032926/ 【統計分析】機械学習・データマイニング18 http://mevius.5ch.net/test/read.cgi/tech/1507807291/ VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured 学歴不問って職務経歴だけ見ますって意味だよ。 金貯めて研究者ってどうすんのよ 大学編入するとこから始めるのか? あと物理と機械工学は別だから。 >>463 >>あと物理と機械工学は別だから。 そこらへん詳しくないから適当書いたスマン でもバイトで職務経験つけて、そのまま正社員になった奴はうちの会社に一人いるぞ 年齢的に、院試を受ければ、研究者にもなれるんじゃないかな >>451 高卒には越えられない壁がある よほど貧乏で大学行けなかったとかでなければ 理解できる頭あれば大学卒業(あるいは修士以上)してるはずで 高卒が高卒たる所以 言うか! DS系なんだけど、ぶっちゃけネットでググるとすぐ出る ただ、バイトをたくさん取ってるわりに、フリーターから定着できたの俺が知る限りひとりだけ 他にもいるのかもしれないけど >>466 毒親もな。連帯保証人無しでは学校も行けない。入院も出来ない。 中高生の時に虐待を受けていたからまともな精神状態で勉強に集中できなかったとか、 まあ色々なパターンがあるよね 高卒から這い上がってくる奴はいることにはいる そういう奴をまったく見かけないなら、逆にその人が見かけない世界にいるんだろ そろそろ、wikiみたいな「集合知」って機械学習で置換できちゃうんじゃないかな どんなマイナージャンルでも、一人が「こういうキーワードでジャンルの情報集積を」って 指定すれば、入門的なハウトゥや歴史的なインデックスまで作れたり 将来的には検索ワードみたいに随時処理でそれらが出力されたりするんだろうけど、 現段階でも、入力された特定キーワードに関する体系立てた知識の集積は可能じゃない? たとえば、「ホラー題材のギャグ漫画」くらいだと、概要や歴史的サンプルをまとめられたり >>471 機械学習は、所詮膨大な過去を根拠にしているだけだから、新しい知恵を生み出すことはできない >>473 何事かに対して、どういったジャンルに属する話かと判断して、それを総括するフォーマットを 類似記事から引用する学習は可能だと思う 現状でも、Wikiで項目を作る上で「似たような記事」から構成を引用するのが普通だ そこそこのマイナージャンルでも、テキストとして情報化されてきている 「データ群の前半に集中する情報を要約して『概要』とする」ことや、「年代と頻出で年表的に フォーマットを形成する」のも可能だと思う というか、Wikiの各記事においてすでにこういう「情報をまとめる上での構成」ができているんだから それ自体を機械学習できるはずなんだよ >>474 >現状でも、Wikiで項目を作る上で「似たような記事」から構成を引用するのが普通だ 一言で「似ている」というけれども、「犬と似ている」「猫と似ている」は現状の深層学習で実現できるとしても、 「似ているもの同士をまとめる」はまた別ではないか? このタイプにおける教師データは成立するのだろうか? >>475 「犬と似ている」と「猫と似ている」は、フォーマットとしてほぼ同じ語り口で記事になってると思う 同じようなフォーマットの記事から、頻出単語や構文を教師データとして、関連する情報として 拾うのは単純に機械学習の範囲だと思うけどなぁ 「同じような単語を同じような語り口で記述している記事」が教師データなわけで >>476 >「同じような単語を同じような語り口で記述している記事」が教師データ メタな構造そのものを教師データにできるものかな? >>477 むしろそういう「言及」をデータとして扱わないと機械学習の有効性が意味を持たないと思うよ 「○○は△△という意味で□□である」っていう関連を一つの型として学習する必要がある それをビッグデータから学ばないと、各データを統合で結ぶだけの古典的計算機に過ぎない >>478 >それをビッグデータから学ばないと、各データを統合で結ぶだけの古典的計算機に過ぎない なるほど! >「○○は△△という意味で□□である」っていう関連を一つの型として学習する必要がある 二項関係から三項関係への進化は、今は出来ていないんじゃないかな? Googleが猫の画像を判別させる人工知能を作るだけのために大量の猫画像を必要としたように、 wikiを作るとしたらその1項目毎に猫画像学習と同等かそれ以上の情報をかき集めて学習させる必要があるわけで 話題のcoinhiveみたいに世界中の各人のPCのリソース借りるような方法でもあれば可能かもしれないが特定の企業内だけで実現するには必要な計算資源が膨大すぎる Googleが画像から猫を判断させたのは、教師なしのニューラルネットワークによる学習だよ AIによる学習結果は、その本質を理解しているという意味じゃない 「検索結果の中からざっくり中央値を取る」ようなもんだ 「〇〇について、どこの誰がいつから始めてこういう成り立ちだ」みたいなWikiっぽいレイアウトに まとめるだけなら、既存のWebページと電子化されてる書籍だけで足りるかと もともとWkipedia自体、外部サイトでの記述や書籍による出展が求められるわけで そうした情報がちょいちょい間違ってたりするのも現状と同じ 教師なしであってる somでは無い ttp://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/en//archive/unsupervised_icml2012.pdf 高卒派遣で機械設計やっていますが3年やっても年収300がやっとなので機械学習とPythonを学んで年収500万ぐらいになりたいです 付け焼刃の知識は、年収5000万overの人が作った機械学習自動化ツールに置き換えられそうだ。 というか、年収500万ぐらいならpythonだけでも有るだろ >>487 pythonって日本では需要が無いのでは。 日本の大企業で機械学習やってますと言ってるところはどういう環境で開発してるんだろう? 自動制御システムを機械学習という人たちもいるからな >>485 マセマみたいな簡単な参考書で、線形代数、微分積分、統計学の知識を大学一年生レベルまで習得 これなら分かる最適化数学、言語処理のための機械学習入門、はじパタ本を読む プログラミングは、書籍だけで勉強する場合、pythonの参考書を最低五冊 また、英語を勉強して、論文を読めるようにするように DB、クラウドの知識もほしいし、前処理についても独学しておいた方が採用されやすいだろう カグルにもチャレンジした方がいいかなあ あと絶対むずかしい参考書に手を出すな! 絶対だぞ! むかしから日本は共有知を軽視してきただろ 今更なに言ってんだ >>492 ご丁寧にありがとうございます 自宅学習がまるでできないのでまずは基本情報を取って自信をつけてみます 「〇〇入門」は山ほどあるのにその先を教えるものになると日本語の情報は激減するよな どうせ、価値ある一次情報は国外からしか出ないから、まず、英語で良い。 新井女史が人工知能の最高峰な国、Japan。 https://booklive.jp/review/list/title_id/493315/vol_no/001 >>469 同意。そこらへんのことを本当に知らない人多すぎ。 まあぶっちゃけ、自分が思い浮かぶ程度の手法は、エクセル先生でできちゃうし、実務上はそれをわざわざRやらPythonやらでやるインセンティブもないわけで。 ロジスティック回帰とかそこら辺になりゃ意味あるがあまり機会がない。やらんでなんとなく過ごしてる自分が悪いだけ疑惑はあるけどw https://twitter.com/ikasanma/status/1007588876251160582 流石にEXCELとPythonは使い道が違いすぎる >>501 背景の緑のマトリックスみたいな画像がpython関係なくてダサすぎる Excelは昔から統計分析でも使われてきたし変ではない。 今更と言われるくらいにパイソンも昔から存在したが、注目されるほどではなかった。 パイソンがデータ処理に向いているというのは最近流布されるステマの一種だろう。 インタプリタだからパイソンはデータセットが肥大化すると遅くなるよ。 シティー銀行がデータ分析や人工知能しようが、世界は常に変わるからエキスパート システムのようなアプリケーションは成功しなかったし、株価予測は原理的にランダムであり 予測不可能なのでAIなどやるだけ無駄。 データ量肥大化でpython処理が重くなるというならEXCELの場合重くなるどころか開くことすらできなくなるけどね むしろEXCELとの比較だけで言えばpython使うなら元データを分割して読み込みなど工夫すれば原理的には元データ量に関する限界はなく処理時間もデータ量に比例するだけ Excel推しの人ってみんな言ってることがどこかズレてる印象 というか、EXCELしか使えないからそれしか選択肢ないんだろう まず、エキスパートシステムは部分的には成功しているぞ 成果が世の目に触れにくいだけだ そして、パイソンの株式予測は、データが増えれば増えるほど成功する あんなの最適化数学の延長で十分 >>512 >株式予測は、データが増えれば増えるほど成功する 株価が上昇するか、それともアンダーウェートか、それだけでも判定できるのなら大いに役に立ちます! 勝率はどれくらいですか? 株価予測は簡単じゃねえわ 当たり前の話なんだが過去は幾らでも説明できるんだけど 未来は「まだおきていない」ので分からんのだ 株価は、あらゆる情報を用いたとしても、日経平均などの平均値を超えられないという、予想が信じられてるんだろ。 日経平均を上回る圧倒的パフォーマンスをだしたとしても、一時的であってたとえば100年、1000年とか長期で測れば平均値に落ち着くといった。 株価予測が可能かどうかに関する理論・仮説はこれだ。 効率的市場仮説 - Wikipedia 金融経済学における効率的市場仮説とは、市場は常に完全に情報的に効率的であるとする仮説。 効率的市場仮説に従えば、株式取引は株式を常に公正な価格で取り引きしていて、投資家が株式を安く買うことも高く売ることもできないということになる。 すると、銘柄の選定や市場のタイミングから市場の平均以上の実績を得るのは不可能である。 チリジ・マルワラは、市場に人工知能を搭載したコンピューターのトレーダーが増えるほど市場は効率的になっていくため、 人工知能が効率的経済仮説の理論の適用可能性に影響を与えるのではないかと推論した。 ウォーレン・バフェットは効率的経済仮説に反論していて、特に注目に値する1984年のプレゼン「The Supervisers of Graham-and-Doddsville」において、 世界最高レベルの運用投資会社で働く株式投資家の圧倒的多数は、投資家の成功は運で決まるという効率的経済仮説の主張に反論していると述べた。 マルキールは、プロのポートフォリオマネージャーの3分の2が(1996年までの)30年間にわたってS&P 500指数を越える実績を出せていない (しかも、ある年に実績が高い人とその次の年に実績が高い人の間の相関は殆どない)ことを示している。 自分の考えは、株価予測は不可能という効率的市場仮説はほぼ正しいとおもっていて。 ビル・ゲイツとか、孫正義など個人・組織とかの勝手な思い、欲求で大金が動いたとき、 市場の効率性が崩れ、その瞬間だけはチャンスありという理解。 個人の思いは普通は予測できない。本人自身なら分かってるが・・・ しかしそうすると金持ちは大金動かせて、その正確な予測も自身はできてるので常に稼げることになるがどうか。 すまんスレチだが助けてくれ JavaやろうとJDKをダウンロードしたんだが インストールパッケージを開くことが出来ませんでした。 パッケージがアクセスできることを確認してください。 またはアプリケーションベンダーに問い合わせ、このパッケージが 有効なwindowsインストラーパッケージであることを確認してくださいと 書いてある。 どうすればJDKを起動できるんや? >>519 オラクルのサポート契約結べばすぐ解決するよ! >>501 FRBのモデルはJuliaで作られているのにな。日銀はmaltab。pythonすらでない。 >>516 考えてみたところ、日経平均やNYダウや為替レートなどいろいろな要素が多く入ってる程、予測できない一方で。 これに反対してるウォーレン・バフェットの理屈も理解できるな。 特に社長個人に注目して、信念とか哲学とか聞いてみるとか、会社見学して社員教育や社員の熱意、やる気を確認するなどすれば、 いずれ(平均以上に)成長できる会社を発見するのはできそうだからな。 そうなると株価予測というより成功者を見つける事になってくるが、これは同一でいいのか。 これが、全てな気がする。 >>株価に影響を与える全てのパラメータがあればできる 株の予測に限らず、必要なデータの種類や指標が解らないと、AIは作れない。 対象ジャンルにAIエンジニアが、逐次精通していくのは無理ゲー。 アメリカのインフレとその後の崩壊に既に仕込んであるのだろうな大手は データの性質をよく知ってるほど強い どんな前処理したらいいかわからんし 株価に影響を与える全てのパラメータがあればって それあなたインサイダーですわ 確かに、原理的にあらゆる情報があれば予測できるとしても、現実的にはオープンにされたデータのみから予測できなければ合法に使えないな 株価予想、デイトレード的なものに機械学習を導入するだけなら 本当か嘘かまでは分からないけどアメリカの方で既に浸透しているらしいな ネットニュースでちょくちょくそういう話が流れてくる まだ無理なのは長期の予想の方だろう 「こういうデータがこう動いたら株価はこうなる」みたいに明示できるなら機械学習なんて不要だろ そうじゃなくて、全部AIに任せて「理由は分からんけど色んなデータからこれが買いだ」みたいな 説明するとアホみたいな活用が本来の機械学習の強みだろ 「理解」は放棄して「活用」だけするのが正しい姿だ 「株価の上下」という出力を変えて、「株価の変動にどういった要素が組み合わさったか」という部分を 分析するのは可能かもしれんが、それは経済学に寄与することはあっても株取引には不要な要素 >>519 だがwindows10でJDKをダウンロード、ダウンロード後保存されたJDKを 開こうとしても上記のような文が出てきて開けない ちなみにウィルソフトは一旦OFFにしたり、オフラインでのダウンロードもしたし Edge以外でfirefoxを使ったりしてもダメだった パターン認識と機械学習(PRML)の輪読資料を公開 2018年06月18日 soneoka education, news, readings C.M.ビショップ他著「パターン認識と機械学習」の輪読資料の一覧を当サイトで公開しました。 詳細はこちらから http://deeplearning.jp/deep-learning-day18-2/ 実データで学ぶ人工知能講座(AIデータフロンティアコース) http://learn-ai.org/about 2018-06-18 平成30年度後期の募集につきましては講座について(応募方法)に掲載しました。 募集期間は7/1(日)〜31(火)となっています。 >>536 SUGEEEEEEEEEEEEEEEEEE!!! 2chなんてくだらないものを見ていて、本当によかった >>542 自分は数学専攻だけど雑で読みにくい 文系や工学系の人が雰囲気を味わうのに手頃なんだろ >>547 たぶん話の文脈を読めてない 工学レベルの数学で十分だろという意味だろ 任意精度で最小二乗フィットをやろうとしてるのですけど、Mathematica以外の選択肢は 無いのでしょうか? >>551 leave-one-out 交差検証での(最小二乗フィットの)限界(何次元迄だいじょうぶか)を 調べたくて…。 でも、(元データの精度はどうなのって点は置いといて)最小二乗フィットの結果に疑義 が起きない様に、106ビット相当の精度の最小二乗フィットでleave-one-out 交差検証すると、 Wolfram Programming LabのFree planだと8次が限界ですた。 1個外したデータでFit[]して、外したやつで誤差を計算して2乗して和を取ってるのですけど、 何かズルする手段があったりするのでしょうか? 「ここ迄やった」変数を用意して、中間結果を書き込んでやれば、 途中からでも計算を再開出来るのか…。←せこい 機械学習に興味ある新参者ですがマスター教えてください。パーセプトロンの説明だと入力値と重みの計算値を1か0で出すと思うのですが、多層ニューラルネットワークの場合は計算値を活性化関数で近似してその値を次の層の入力値にする認識でokですか? 何に最少事情でフィットさせるのか分からないことには何とも。 >>555 偽術者を自任してますw >>559 >>560 500点位の(x,y)のデータ(単調増加) >>561 Mathematicaで xl = x^Range[0, 2] /* = {1, x, x^2} */ Fit[data, xl, x] みたいな感じ(たぶん厳密解法)。 ttp://reference.wolfram.com/language/ref/Fit.html ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.1 2024/04/28 Walang Kapalit ★ | Donguri System Team 5ちゃんねる