【統計分析】機械学習・データマイニング23
■ このスレッドは過去ログ倉庫に格納されています
!extend:on:vvvvvv:1000:512
機械学習とデータマイニングについて語れ若人
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング22
https://mevius.5ch.net/test/read.cgi/tech/1547338417/
VIPQ2_EXTDAT: default:vvvvvv:1000:512:----: EXT was configured 別にdeep learningしない機械学習ならグラボはいらんぞ。 LSTMによる小説創作って成功してないよね?
それっぽい文章は書けるけど、意味不明だし
まともなストーリーは皆無だよね。
なんで、成功しないの?意味あるの? >>562
成功しないのは小説生成が金にならんから+LSTMのモデルではできないのだろう
大体文章を学習して小説生成ってのはちと無理がある
背景にある抽象的な場面遷移なりを学習し、そこから文章生成しないと難しいんじゃないかな
多分だけど、台本などを学習した方が良いと思う LSTMだけじゃ小説は無理っしょ?
短歌や俳句ならできるかも? この世界を極める!
これは重要なことで有意義なこと
優秀な人ならどんどんチャレンジするべき。
これはこれでOK。
でもって、大学でそういった授業が始まっているときは
すでに、別な新しい世界が産業界では起こっているという
ことにも横目で見た方がいい。
ただし、AIと同じように一般的に金になるのは20年先だけど。 学部の授業に出てきたら
既に周知の枯れている技術ということ
だろうからね。
研究するなら日本語で書かれた本が
1冊出たところが最終かな? 昔のAI 研究について教えて下さい。
70年代、80年代のニューラルネットワークって
昔のPCでどんな風に設計していたの?
英数字や記号によるプログラミングですか?
Pythonの画面みたいな?
今でもそうだけど。 その年代はわかんないけど90年代なら3層ニューラルネットによる文字認識(まさにMNISTみたいな感じ)をC言語で書いてたよ >>571
80年代後半はPCじゃなくてSunとかのWorkstationがメインだった
GUIはSunViewとかXViewとかで、言語はC
70年代はよく知らないけど、多分DEC-11とかのミニコンとかか あと、大学とかだと、センターの大型コンピューターをTSSで使っていたか
言語はFortranで >>571 昔(戦後すぐあたり)は、アナログコンピュータが多かった。
つまり計算もメモリも人間に近いアナログだった。
微分積分とかは、コンデンサを使ったりね。
その後デジタルコンピュータが発達してきても、人間の脳を再現するには多値メモリが必要なんじゃないかという論文が沢山出されていた。 自分が興味を持ってたのは3値メモリ。
今、抵抗型メモリがではじめてるから多値メモリを使った新しいコンピュータ理論が出てくる時代になってきた。
FPGAと多値メモリを組み合わせると全く別世界が生まれる可能性がある。 この組み合わせはすでにノイマン型コンピューターではないと言われている。 >>576
へえ。ちなみに汎用AIやシンギュラリティは実現できると思いますか? 多値だろうと2値だろうとノイマンコンピュータにかわりはないって誰も突っ込まないのな。 >>571
AIは70年代が中心で80年になると、興味は急速に薄れていった
人から情報を聞き出すExpert Systemという流れだったので無理があった。
にニューラルネットワークについては、その時期に基本は出来上がっている。
言語はフォートランが多くの場合がFortranだったと思う。
80年半ばのQuinlanの発表をきっかけに、機械学習がさけばれはじめ
90年代にり機械学習はAIではなくデータマイニング中心に、本格的に
花開き始めた。
データマイニングでのデータからの知識利用の成功をもとに、AIでも
もっとデータからの知識を利用しようとする流れが徐々に出てきたように
感じるが、AIとしてはディープラーニングが叫ばれるようになるまで
脚光は浴びないでいたのが実際。
あくまで全体的な流れの話なので、部分的、あるいは一企業で力をいれて
等は当然行われていた。ロボットなどね。 >>584
もうしわけない
スマホ改行無視設定しとらんのね
仕事になるといろいろな入力媒体があるから
しとくといいよ。 >>586 そんな設定ないわ、人に要求するんじゃなくて自分で気をつけろ。 なんであなたの表示に合わせんとアカンの機能が乏しい機器に合わせろって話か >>581
ダメというか表現能力は変わらんよねという当たり前のことを言ってるんだけれど。
思った以上にここはやばいな。。 576がなんのことを言っているのかわからんが
表現能力が変わらなくても効率性が違うでしょ >その後デジタルコンピュータが発達してきても、人間の脳を再現するには多値メモリが必要なんじゃないかという論文が沢山出されていた。 自分が興味を持ってたのは3値メモリ。
>
>今、抵抗型メモリがではじめてるから多値メモリを使った新しいコンピュータ理論が出てくる時代になってきた。
>
>FPGAと多値メモリを組み合わせると全く別世界が生まれる可能性がある。 この組み合わせはすでにノイマン型コンピューターではないと言われている。
この辺の話の反論をしてるつもりなんだけどね。
あとは君の日本語理解の問題なので勝手に考えてくれ。 >>11東京大学理学部数学科に入りたい
って言ってる時点でだめだ
大学に入る前に
自分の数学論理の概要が構築されてなければ
将来的になんの成果も残せない
自分の数学論理の概要が構築されてれば
どの大学にはいっても別に問題はない >>577ちなみに汎用AIやシンギュラリティは実現できると思いますか?
汎用AIはAIの技術の延長線上にはないんで
今のAIの研究者には不可能 >>42論理が破綻してる
>全であるなら、それ以外が存在しえないのだから、破壊することも、全以外を認知することすら出来ない
数学で言えばメタ数学でなんで
メタ論理って位置づけになる
これは自己言及で
いわゆる不完全が結論だ
ここで問題になるのは汎用AIだ
汎用AIの研究は「一人称の研究」といわれ
自我(自分自身)を自分の研究のテーマにするってことで
メタ研究で結論は不確定だ >>593 シンギュラリティとは現在の知識では予測不可能な世界だから、現在の延長線で考えても無駄。
しかし必ず訪れる。
回線スピードが早くなり全世界のあらゆる機器が接続された状態になれぽ何が起きるか? 俺はずっと長い間、シンギュラリティは
こないと考えていた。
その根拠は、
1、人の脳は全く解明できていない
(22世紀には解明されるだろうという予測はある。)
2、技術曲線の存在。どのような技術も必ず天井にぶつかる。
3、そもそも刹那も同一でない生体脳を、高々デジタルごときで再現できない。
4.プログラムやデータそのものが膨大過ぎて処理できない。
5、プログラムが巨大複雑になって人が理解できない。
などというもの。
しかし2年前、考えが変わった。
人の脳を超える自我をノイマン型計算機で
作れる可能性があることに気がついたのだ。
来年のAI学会にて動くものを
見せる予定で頑張ってるけど
仕事が忙しくてなかなか時間が取れない。
こうゆうとき、大学の研究所で給料もらいながら
女子大生のナンパしかしてない後輩たちを
見ていると殺意が沸く(笑) >>596 ノイマン型でも出来るだろうけど、多分シンギュラリティが起きる頃には非ノイマン型がかなり使われてるだろう。 >>597
非ノイマン型は
まだまだ先の話でしょ?
30年後ぐらい?
俺はもう死んでる頃。 量子コンピュータも非ノイマン型だろ?
原子スイッチを使った回路や多値メモリなどで非ノイマン型の研究が進みつつある。
FPGAを非ノイマン型と言う人もいるが。 >量子コンピュータも非ノイマン型だろ?
>原子スイッチを使った回路や多値メモリなどで非ノイマン型の研究が進みつつある。
おもちゃと一緒にするなよ
>FPGAを非ノイマン型と言う人もいるが。
いないw 大脳生理学が専門の教授もAIで計算してたら未踏の壁を越えたとか眉唾な話をしてたが
AIはシステム屋が使うより、各専門家で使いこなして貰った方が結果が出そうだ。
どうせ専門知識が無いと変数の定義も値の定量化も出来んし ディープラーニングを器用に編み出す
人間がディープラーニングを編み出すときに考える思考を再現しないと
直観がGAN生成装置とかね 皆さん教えて下さい。
なんで、シェフワトソンは使えなくなったのですか?
シェフワトソンを紹介してるサイト
https://tech-camp.in/note/technology/42720/
シェフワトソンのサイトが表示されないのです。
検索しても、理由がわかりません。
せっかく面白いシステムだと思うのに、使えないのはもったいないです。 >>604
サービスを止めたんだろう
ttps://www.reddit.com/r/AskCulinary/comments/8zpnr0/what_happened_to_ibm_chef_watson/ >>606
実際に料理をしたい人にとっては、面白くなかったということないかな。
面白さは自分で考えるところにあるのかも。 >>606
IBMの技術力の宣伝の一環、商売ではない kerasはオワコンなの?
pytorchがいいの? >>599
ノイマン型じゃないのを非ノイマン型と言うなら、PICマイコンみたいな命令とデータを別々のメモリに載せるのをハーバード型って言うけど。。。 >>611
keras使うくらいなら素のtensorflow使ったほうがマシ。 >>611
終わってはないけど複雑なことやろうとすると途端に難しくなる 大雑把にkerasで書いて細かい所はtensoflow kerasは簡単に書けるが細かいチューニングができない
tfは慣れなければ複雑だが細かいチューニングがやりやすい
その両方のメリットを享受するためにtf側がkerasを組み込んで使えるようにしている >>616
そう
何か別物と思ってる人がいるみたいだけど >>618
外国にはあるということは使えるのですか?
どうやって使える? >>621
スマホからだけど、どこをクリックしたらいいのかわかりません。
どこも単なる紹介記事のようなもので、シェフワトソンは見当たらない。 >>622 本当だね、諦めなさい。 そのうちいろんなベンダーがWatson を使って同じ様なサービスを始めるから。
IBM としてはそれらの邪魔になってはいけないから閉じたんだと思う。
日本だとクックパッドとか始めそう。 シェフワトソンを使ったレシピなんてやってるし。 クックパッドはデータを持ってるから AI (ワトソン) を使う環境は整ってる。 scikit-learnをプロダクトで使ってもいいの? 具体的にsklearnの何をどういうプロダクトで使いたいのか 使ってもいいけどscikit-learnはもうかなり古いぞ >>628
初心者の自分には驚愕の事実…
他に台頭してるライブラリがあるのですか? >>629
keras(tensorflow)かpytorch
ちなみにgoogleとmicrosoftがそれぞれ使っている
更についでに言うと、俺も数年前にscikit-learn使って同じ事思った >>630
ライブラリとしてのレイヤーがぜんぜん違うだろ sklearnは機械学習というよりその前処理に使うのが主 anacondaて使っている人は多いの?
最適化されてなさそうで不安なんだけど 画像や動画、音声なんかでdeep learningやろうって話じゃなけりゃscikitlearnで十分だよ。
古いと言えばそうだが逆に言えばライブラリとしては結構枯れてる。
まあただこの仕事に憧れる奴はミーハーだろうからそういうのは好きじゃないんだろうけどな。 そもそも本格的にやろうとする人はpythonみたいな遅い言語は使わない 専門外だけどちょっと機械学習やったら後悔したよ
もうやめたい >>644 自由にやめれば良い。 誰にやらされてんだよ。 会社ならDataRobotとかSPSS Modelerみたいな一般向けのツール買えばいいでしょ ああいうの逆に使いづれーわ。excelのがマシなレベル。 結局フォーマット合わせなり微妙な調整するんだからスクリプト書くことになる。
だったら最初からpythonで書いた方がマシっていう当たり前のことがバカには通じない。 >>652
だからその手の手軽な分析だったらexcel使ってヒストグラムでも出した方がマシって話なんだよ。
ツールありきで考えるような人間はこの仕事に首を突っ込まない方が幸せだよ。
本人も周りも。 分析や機械学習までツールに投げるかは別にしても、データの準備にTalendみたいなETLツール使ったりは普通にやるだろ >>654
そういうツール使ってうまくいくほど世の中のデータベースはスキーマがまともなことはない。
そしてそういう残念な組織ほど一発ツール使って解決しようとしてドツボにはまる。
スキーマがまともな組織な場合はまともなプログラマがいるのでこういうことで悩んだりしないという
ある種のデッドロックツールなんだよ。 田舎のおじさん企業にも始められる機械学習ツールて位置づけじゃない
そら国内sotaな現場ばかりじゃないからな
MLは高い数学の素養が求められる分またハードル高いし >>659 初学者からプロ用途まで幅広く利用される。 実際にAI系はPythonがなければ始まらない。 ■ このスレッドは過去ログ倉庫に格納されています