【統計分析】機械学習・データマイニング23
レス数が1000を超えています。これ以上書き込みはできません。
!extend:on:vvvvvv:1000:512
機械学習とデータマイニングについて語れ若人
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング22
https://mevius.5ch.net/test/read.cgi/tech/1547338417/
VIPQ2_EXTDAT: default:vvvvvv:1000:512:----: EXT was configured 前スレ
>>998
ゴールドマンが置換したのは執行部分だがね
記事、最初の一文目にある通り
buying and selling stock on the orders of the investment bank’s large clients AI(機械学習)はただの関数作成です。
それをまだ勘違いしてる人が多いですね。 最近、
データを解析するビジネスではなく
データを解析した気にさせるビジネスが流行ってます。 まず、ここを覗いている時間があるってことは
合格難しそうだな AI→情弱orレベルの低いエンジニア向け
機械学習→まともなエンジニア向け
ITリテラシーの高い人にAIの話題を振られたら馬鹿にされてるって認識した方がいいよ
本屋で売ってるビジネス書なんかはマジで情弱ビジネスの典型で「AI」って単語がタイトルにめちゃくちゃ使われてる AIという単語に戦々恐々としてる人たちなら多分いっぱいいる 元々、機械なのに何かしら考えてるような気がするってのがAIの定義ですよね。機械学習も該当すると思うけど。 でもAIって単語は便利だと思う
高齢の使えない事務職員をリストラしたいときにはAIの発展って言えばすんなりリストラできそうだし 世界のどこにいてもインターネットができるようになってほしいから、
もっともっと衛星通信が普及してほしい。 まぁでも、地底や海底に行くことなんてそうそう無いだろうから、
せめて地球の地上と海上と空の全ての場所でインターネットに繋がればいいかな。
もちろん、地底や海底でも繋がれば尚いいが。 onewebっていう会社がインターネットに繋がるための衛星をまずは6機打ち上げたそうだな。
これからが楽しみ。 >>21
AIで真っ先に駆逐されるのは、AIに移転出来るノウハウ持ってない若手なんだが? 新しいものに抵抗がない若手を切って昔のものに固執しがちな高齢を残す意味とか無いだろ
何より若い人は何十年も働いて貰えるし若手を駆逐するメリットとか無いでしょ 部門長がAIを使う
AIを使いこなせないor代替される下っ端は大幅に切られる
富士通はエンジニアに転向という凄い道を用意してたけど、普通の企業じゃ難しいだろうな >>25 ようやく上がったか。 週1個ずつ打ち上げる計画。
ソフトバンクの子会社 >>29
素人を情報部門に雇って欝にする元祖ブラック企業 そもそもAIなんて実用の域に達してねえよ
無能を切るための言い訳 >>10
毛筆風とか手書き風とかコントロール出来て、
画像では無く、フォントファイルの形式で出力できれば、一儲けできそうだな >>20
機械学習 ⊂ AI
人間から見て知的だと感じられればAIだよ
例えば中身がif文の塊でも単なるロジスティック回帰でも AI=artificial intelligence=人工的に作られた知能
という意味しか持たず、実現のための具体的な手法などは全く含まないあまりにもざっくりした概念でしかないので技術者と名乗っておきながらAIというワードを使ったら偽物だと思ったらいい 自分からはAIとは言わないけど客と対応するときは相手に合わせてAIと言うかな >>36
machine learning=機械による学習
という意味しか持たず、実現のための具体的な手法などは全く含まないあまりにもざっくりした概念でしかないので技術者と名乗っておきながら機械学習というワードを使ったら偽物だと思ったらいい もともと存在した数学的な手法を勝手に
教師あり学習、教師無し学習などにカテゴライズしたのが、今の機械学習と呼ばれるもの。 >>39
「今の」というところが重要
将来的には、それ以外のものでも「機械による学習」とみなすことができるものなら機械学習と呼ばれることになるであろう
一方、AIについても、これまで「AI」というタームでタグ付けされて研究され、ある程度の成果を上げたもの
(例えば機械学習とかエクスパートシステムとか)を列挙すれば、「今のAI」を客観的に定義することはできる
一方の概念については内包的に定義し、他方は外延的に定義して比較するのは公平とは言えない どうしても気になることがあるので質問します。
全てのものというか「全て」自体を完全に破壊できる超強力な武器があるとする。
その武器の破壊力は無限というか「全」すなわち際限の無いものとする。
そしてその破壊力のことを「全パワー(全ての力)」と呼ぶことにする。
その全パワーの武器が、「全(全宇宙、全次元、つまりとにかく「全て」自体のこと、もちろん無限で際限の無い大きさである。)」を破壊しようとしたらどうなるのでしょうか?
武器の破壊力は「全」。
そして「全」を破壊しようとする。
両者「全」である。
結果はどうなりますか? 論理が破綻してる
全であるなら、それ以外が存在しえないのだから、破壊することも、全以外を認知することすら出来ない >>42
申し訳ありませんでした。
確かに>>41の論理でいくと、以下の二つになると思うのですが、その二つの場合の両方とも考えてほしいです。
@「全」が自滅したらどうなるか?
つまり、「全」がそれ自身の力(つまり全パワー)で滅しようとしたらどうなるか?
Aその全パワーの武器 以外 の 「全て」とその武器が対決したらどうなるか? あっ、でも、Aの考えだとその武器は含まないという考えになるわけだから、
確かに「全」ではないのですが、
一応、その武器とその武器以外の全てが戦ったらどうなるかということについても考えてみてほしいです。
もちろん武器の破壊力は「全」。
その武器以外の全ての大きさも「全」。
あれっ、でもその武器を含まないって時点で「全」とは言えないか・・・・。
どうしよう・・・。 あと、武器の破壊力が「全」の時点で、その武器自体も破壊することになるよな・・・・・・・。
その武器以外の全てにした時点で破壊力が「全」とは言えなくなるもんな・・・・・。
だって、「全て」を破壊するから「全」なんだもんな・・・・・・・・・。
ますます答えが分からなくなってくる・・・・。 DCGANって、そのうち動画も作れるようになるの? アダルトビデオの女優の顔を変えるGANが出来て大問題になってた
githubすら削除されていた >>47
マジかw アイコラだな
男性の顔を女性に変えるGANがあるから
それも可能だろうなぁ >>46
静止画からその先の動画を作るGANは出来てる >>47
deep fakeのソースは削除はされてない。 >>52
LSTMやsequence to sequenceでは限界がある。
最近になってBaiduがこの限界を超えるSTACLという新しいモデルを発表してる。
http://research.baidu.com/Blog/index-view?id=107
ただし、論文発表ではなく、詳しくは述べていない。
あと、今月になってからOpenAIがなんかやってたが、詳しい内容はフォローしてない。 絶対に完全なる無になってもう二度と有になりたくないのですが、死んでも無にはなれませんか?
霊魂とかあるのでしょうか? 幸か不幸か死は幻だよ同じように生も幻
せっかくなら哲学的探究でもやってごらん
キーは「自分とはどれか?」だ
参照するなら西洋哲学だけでなく東洋哲学も忘れずにな >>56
いちいち微妙にIP変えて同じようなこと書いてるんじゃねーよ なんでIP出しになってるの?
会社から書き込めないじゃん >>56
肉体や脳を構成してる分子が原子がクオークがばらばらになって
だれかの飯になったりうんこになったりするだけ
君の体は決して無くならない
霊魂は知らんしそもそも生きてるときにさえも霊魂があるかどうか不明やし >>61
客観的には無にはならないと思いますが、主観的にはどうなりますか? ヒマラヤという中卒ニートのおっさん、7年間書いてることが一緒、スルー推奨 どこもかしこも機械学習やろうとしてる企業ばかりで
ガバガバに条件緩和してる求人が増えてるな まあいつの時代も不変なものはただ一つ
それは「芸術」ですよ(´・ω・`) 自動車大手に機械学習分野の研究開発職で転職するにはどの程度のレベルが求められますか 情報、数理工学、統計
の研究室で機械学習やってた経歴 コンピューターで意味理解させる方法。
そもそも、コンピュータが意味を理解するとは? 「AI vs. 教科書が読めない子どもたち」批評3
https://robomind.co.jp/aivskodomotati3/
コンピュータで文の意味を理解しよう 「AI vs. 教科書が読めない子どもたち」批評4
https://robomind.co.jp/aivskodomotati4/
「太郎は花子が好きだ」をコンピュータに意味理解させました 「AI vs. 教科書が読めない子どもたち」批評5
https://robomind.co.jp/aivskodomotati5/
どう思いますか? >>74
新井紀子の論文をざっと読んでみたら
工学研の学生のような論文ばかりだね。
文系が必死になって計算機を使って
工学部の学生のようにゴニョニョやってます、という感じ。
これが若くて可愛い女子大生なら「いいねー!」となるんだろうが、
いい年したババアだからな。
気持ち悪いとしか思わない。 NASA(アメリカ航空宇宙局)に宇宙論の研究者として就職するにはどの程度の学歴が必要ですか?
学部は東大でも良いですか? 宇宙論よりも存在論とか認識論とか意味論の方がより根源的ですか?
根源的な順は、
存在論>意味論>認識論>宇宙論
ですか? 最も根源的な問いって何だろう?
なぜ何もないのではなく、何かがあるのか?
は、根源的な問いではない。
それよりは、「「有る」とはどういうことか?」
の方が根源的だろう。
しかし、これもおそらく最も根源的な問いとは言えないだろう。
一体何が最も根源的な問いなんだろう? >>69
おっぱい認識とかマ○コ補正とかやってる人はいないのかな? 最も根源的なことをひたすら考え続けたいならやっぱり哲学を勉強するべきですか?
数学(純粋数学)はどうですか? なぜ工学部なのですか?
哲学とか数学じゃないの?
最も根源的なことを考えるのは。 アインシュタイン『すべての宗教、芸術、科学は、同じ一つの木の枝である。』
-考察-
この言葉を説明するとしたら、その『木の根っこ』にあるのは、あれしかない。『真理』だ。そして、『愛』であり、『神』だ。
しかし私は、これらの言葉が全て同じものを指していると考えていて、そう仮定した場合でも、アインシュタインの言葉とつじつまは合うのである。
-アインシュタインの言葉を自分のものにする-
例えば、『四聖』に数えられる、
孔子、 ソクラテス、ブッダ、キリスト
彼らの言葉を一通り見たが、私が見出した彼らの教えの共通点は2つあって、まず一つ目は『自分の心に目を向けるべし』ということ。そしてもう一つは、『真理を説いたこと』なのである。
彼らの言葉は、確かにその教えや表現は微妙に違うのだが、真剣に向き合って内省してれば、(どれも同じものに目を向けている)という事実が、浮き彫りになってくる。それこそが、真理であり、愛であり、神なのだ。
ラ・フォンテーヌは言った。
『すべての道は、ローマに通ず。』
私は、この『結局、辿り着く場所が同じ』という現実を考えた時、
(もしかしたら、『神』という実体は、私が認識して理解できていて、この世に普遍的かつ絶対的に広がっていて、圧倒的な強い支持を得ている『愛』や、『真理』と、ほぼ同じものなのではないだろうか?)
という強い意識が芽生えるようになった。そして、そんな私からすれば、このアインシュタインの言葉を理解するのは難しくはない。
『同じ一つの木の枝』も、『結局、辿り着く場所が同じ』も『この世には、圧倒的な根っこが存在している。』ことを示唆する言葉となっているのである。
『そこ』から離れれば離れるほど、人間の心は虚無に陥る。これは、非常に興味深い事実である。 我々の周りにある偉大なことの中でも、無の存在が最も素晴らしい。
その基本は時間的には過去と未来の間にあり、
現在の何ものをも所有しないというところにある。
この無は、全体に等しい部分、部分に等しい全体を持つ。
分割できないものと割り切ることができるし、割っても掛けても、
足しても引いても、同じ量になるのだ。
レオナルド・ダ・ヴィンチ 色んな企業が機械学習のツールとかを独自開発してるけど海外の強い人達が作ったオープンソースのツールを使った方が利益出ちゃうのが悲しいよね 全と仏教の概念の空はどっちの方が凄いというか上ですか? >>100
概念とか凄いとか上とか考えても何も分からんよ
概念の話じゃないっての 開発だけじゃなくて製造現場が自ら機械学習を使って何かをやろうとしてるってよく聞くけど実用に足るものなのかね
勝手なイメージだけど機械学習まで行かなくてもデータの可視化くらいでも十分な気がするんだよな ニール・アームストロングとレオンハルト・オイラーはどっちの方が頭が良いですか?総合的に見て。 明和水産みたいな画像掲示板を作ってそれの広告収入で月収最低でも200万円以上は稼ぎたい。 >>105
ユニバーサルメルカトル解法の思案者は誰だっけか 自然科学と人文・社会科学の違いの議論と確定論・自由意志の議論は関係がなくもない。
人為の所産であるところをどのように記述でき得るのかという話。
あるいは統語を徹底させたところで、何かしら意味の一端を持たせた途端に矛盾が入り込むという話。
そこから意味論のど真ん中に話を持っていかざるを得ない思考なり意志なりの扱いについて、
こういったものはその体系そのものが不確定な相互解釈の循環に依存しており、
今のところそれは綺麗に紐解けないでいる。
だから強いAIの強いってどのように定義できるのかというような、そもそもの知性の定義にしたって
人間中心主義から逃れ得ないというような議論にもなるし、ひとまずはブラックボックス化した上で、
擬人的な振る舞いとして見ることで、本当に人のような擬人的振る舞いなのか、
擬似・擬人的なものにすぎないのかという範疇での判断に依存しているのが、
たとえば有名なチューリングテストもそう。
さりとて別に物理と精神をまったくの二元論として捉えるべきであるという話ではない。
それは究極的には一元論であるのだろうがしかし、やっかいなのは一元論をそのまま一元論として
我々はどのように記述できるのかという問題がある(おそらく何かしら二元論的表現をすることは避け得ないだろう)。 windows環境でssd keras使って物体検出試してるんですけど、
特定のアノテーションツール(VoTT)を使ってxmlファイルを生成すると、
いざ学習に入るところで以下のエラーが起きてしまいます。
No such file or directory ...('画像ファイルのパス(なぜか拡張子は入っていない)')
しかし、下のURLのオリジナルアノテーションツールを使うと上手くいきます。
http://arkouji.cocolog-nifty.com/blog/2018/01/tensorflowkeras.html
同じようにディレクトリと画像データも配置しているので
「ファイルが見つからない」ということは考えられないのですが・・・。
何か原因思いつく方いらっしゃいませんか。
ssd keras:
https://github.com/rykov8/ssd_keras それはそのままpathの問題じゃないか
windowsだったらエクスプローラの拡張子を表示する/しないで解決する気がする
機械学習の前に、簡単なデバッグぐらいは出来るようになっておいたほうが良いぞ
この先ちょいちょいソースコードを書き換える事になる >112
ただ、別のアノテーションツールで生成した場合は上手く回る理由がわからないんですよね。
違いとしたらxmlの構成ぐらいしかないと思うので、
そこを疑ってはいるのですが。 G検定の勉強って、どこから始めれば良いんだ?
全て暗記だけでは対処できない? 参考図書一読すれば十分だった
難易度的にはITパスポートに毛が生えた程度 >>113
双方のxmlを見比べて違いがなかったら
もしかすると文字コードか改行コード、BOMありなしの違いが影響してるかも G検定の参考書読んだことあるけど
採用担当の人事が勉強するような程度で実際に使う人間なら知ってて当然レベルだった 日本のITの資格って基本的にどれも終わってるよな
国家資格も全部業務系アプリ前提で作られてるし 簡単なものでも実際に手を動かして作ったことある技術者にはG検定の勉強はほぼ意味ないよ
統計検定受けとけ 例文)In Santa Cecilia, Mexico, Imelda Rivera was the wife of a musician. Imelda's husband left her and her daughter, Coco, to pursue a career in music.
質問)who is husband of Imelda Rivera
回答)Coco
ソース:https://machinereading.azurewebsites.net/
開発:Microsoft AI Lab 1. INSERT TEXT HERE
Tom took a test. It is very difficult for him. But Tom says, "it was very easy for me".
2. ASK ME A QUESTION
Did Tom take a test?
3. THIS IS MY ANSWER
test >>111
PC のユーザー名、パス・ファイル名に、日本語を使っているとか? >>74
この人のやってること結構、面白い。
言語理解をルールベースのシステムでやろうとしてる。
よくページを見るとMIT/Concept Netの日本語版みたなものまで作ってる。
これはConcept NetのAPIを使ってると思うんだけど、どうなんだろう?
やりたいことの方向性が悪い意味でAGI的なんだけど、よくありがちの企業の
クレーム文書の感情性分析位の実用AIシステムなら作れるんじゃないかと思う。 売り上げ予測のデータ分析やってます。
仕事でやってて最も困るのがお客様から
「本当にあたるのか?」と聞かれたとき。
売り上げ予測は難しいんですよ。まじで。
同じような商品のデータがあればいいんですけど、
新商品なんて比較するものがないから分からない。
つまり教師データがないからわかりません!
「あたるのか?」なんて俺に聞かないで!
お願いします! 当たるかどうかではなく、指標の一つ、判断材料として捉えていただきたい
と何故言えない みなさま回答ありがとうございます。解決しました。
原因は、VoTTが生成するxmlファイルには<filename>タグに拡張子がつかないことでした。
画像ファイル名(拡張子なし)を参照していたため、
画像ファイルが存在するのにエラーを吐いていたんですね。
別途xmlファイルを編集するコードを作成し、対応できました。
お手数をおかけしました。 ipの出るスレで愚痴っぽいことを言うと命取りになるぞ 客は技術面には無知なんだから、機械学習の出力結果は過去のデータから推定される予測にすぎないということを分かりやすく説明できなければ確実にトラブルになる >>135 >>130
機械学習による需要予測は計量経済学で消費関数を測定したようなもの。 >129
>>6みたいな主張についてどう思われますか? 系列データの分割点を予測するアルゴリズムってありますか?
(1,2,3,7,8,9)なら3と7の所で分けるみたいな
系列クラスタリングとかないのかと思ったが見つけられなかった。デンドログラム書くのが近いかとも思ったが、linkage法によっては系列の順番を無視してつながってしまう >>139
何に対して(目的変数)ないと意味ないですよね。
だとすると、AICなどで分けてみたらどうでしょう。 微積・線形代数・アルゴリズムの他に学んだ方がいい分野ってある?
機械学習に限らずwebアプリを作るときに必要な学問でも可 >>145
恐らくこれだわ
言葉も知らなかった、今から勉強してくる、ありがとう
他のみんなも教えてくれてありがとう
>>143>>146 >>152
AI、ベンチャーという言葉が入っていたら怪しい 年間売上1兆円越えてる企業の採用でAIってワードめっちゃ見るんだが >>157 セット販売にご注意ということだろ。単体は良いんだよ。 >松尾豊
初心者向け無料講座開きまくって露骨にビジネスしてるから >>157
君はまず条件付き確率を勉強したほうが良い。
それでもって
「一兆円以上の売り上げの企業」と「AIワードの多い企業」の分布を見ると良い。 >>152
帝国データバンクに5万円払って調べてもらう そりゃ匿名掲示板なら誰だって叩かれるだろう
叩かれない人間などいないぐらい 教え方が上手いか素晴らしい研究成果を出していればそれでいいんじゃないか?
自分はどっちも知らないから何とも言えないけど >松尾豊
話を聞く価値なし。(悪い人とも思わんが。)
http://ymatsuo.com/japanese/research.html
松尾さん上のリンクで紹介してる「深層学習、ian goodfellow」を真剣に読んだほうがよっぽどいい。 >>169
単に今ある技術でひたすら金稼いでる感じ
せこいっちゃセコいがまぁ日本人らしくて良い >>171
英語版で読めば?
どうせ論文漁ることになるだろうし日本語経由しない勉強も悪くないと思うよ。 東ロボくんっていう企画をつくった人も嫌われてたろ
商売っ気が強い人ってなんとなく嫌われやすいんだよ hintonが商売っ気強くても嫌われない
新井は大した理論も手法も試せず作らず「できない」と言い放った無能だから キャプチャっていうんですか?
車はどれ?とか画像を選ぶやつありますよね
あれって一部の画像はAIが生成したやつじゃないですか?
それっぽいモザイクが入った画像がたまにあります >>179
HintonとかLeCunとかじゃない >>179
テック系youtuberのKENTAさんかなーw 初めてkeras使ったんだけどこれみんな分かりやすいと感じるの?
ドキュメントもこれ丁寧なのか…? 評価指標が全く理解出来ない
どんな時にどんな指標を使ってとかみんなよく分かるなぁ >>179
Andrew NgとFei-Fei Liが業界を代表する有名人、大御所。
特に、過去数年のAI業界のほとんど全ての領域(コンピュータービジョン、
機械翻訳、ディープラーニング)はFei-Fei Liがリードしてきた。 追加するとFei-Fei Liはスタンフォード大教授から、GoogleのAI研究開発部門トップ。
去年末にGoogle辞任でスタンフォード大に復職という経歴。Googleは今年に入って
から、Fei-Fei Liの後任に、カーネギーメロン大教授で、学部長のAndrew Mooreを
指名してる。 すみません。大御所の方は知らん海外の人ばかりやね。
そりゃヒントンはわかりますよ。
画像認識コンテストで、世界で初めてディープラーニングの実力を示して、衝撃を与えたから。
松尾豊さんやネオコグニトロンの人はどうなの? >>191
松尾さんは日本じゃトップクラスだと思うけど大御所とは違うかなぁ
ネオコグニトロンの福島さんも原点ではあるけど違うイメージ 松尾は業績に反比例した声のデカさと顔のデカさがトップクラス
バックにリクルートが居るから
甘利センセは情報理論と情報幾何学だけどディープラーニングかと言われたら微妙
無関係じゃないけど 日本代表はプリファードネットワークの中の人で良いのでは?
日本人らしく、新しいことは出来ないけど 参考書とか記事とか読むとaccuracyだけを見るのは良くないって散々書いてるのにその参考書や記事の中でずっとaccuracyを使って評価してるのはなぜ? >>197
章毎に担当している著者が違うとか、偏りのないデータならaccuracyでも十分だったり >>153
> 松尾豊ってなんで重宝されてるの?
著書の中では「人工知能など存在しない」と明確に書いているのに、
テレビに出ると「人工知能がー!」とか、視聴者をけむにまいて、
喜ばせるようなウソを連発してくれるから、マスゴミにとって使いやすい人なの。
松尾豊って、多分、いい人なんだろうと思う。
テレビ局の人から「こういう感じでお願いします」と言われたら
断れないんだろうね。
講演会を頼まれても「人工知能はすごい!という感じでお願いします」
と頼まれたら、ご自分は「人工知能なんて存在しない」と信じていても、
ウソをペラペラとしゃべって、聴衆を喜ばせてくれる!
まあ、使いがったのいい人、ということで重宝がられてると思いますよ。
NHKの番組とか見てても唖然としますもん。
バカな芸能人相手にウソ八百ですから(笑) 宇宙飛行士とダライ・ラマはどっちの方が凄いですか? 「人工知能は存在しない」の人工知能と「人工知能はすごい」の人工知能はどう考えても別物だろ
前者はSF漫画の世界の人工知能を想定していて、後者は現状のディープラーニングとかの技術の言い換えに過ぎないが凄いのは事実 松尾のところの院生か?
勉強もしないで先生の擁護かあ
バカ丸出しw >>207 人工知能の定義自体がはっきりしていないかも知れないね。
人工知能と言うと神様みたいなイメージを抱きやすい。 AIを使ったIoTと言うと大したことはない。
人工知能の未来はシンギュラリティの世界だから予想がつかない世界が出現する。 松尾豊は研究者じゃなくてビジネスマンだな
研究者なら人工知能なんていう誤解を与える表現にもっと慎重でないといけない 目立つヤツは取りあえず叩く
それが日本人である証し 松尾さんの肩を持つわけでは無いが、ここで松尾さん叩いてるような奴程経験値が低くて何も生み出していないんだろうなと思う 松尾研がコンテストで上位入賞したら称賛するけど
そういうレベルじゃないじゃん 長尾真センセなら
歴史を見てきたという意味で
納得する
異議なし >>215
関係ないな。
日本人でもイチローだったり大谷くらい世界で活躍してれば絶賛するだろ。
残念ながらIT界隈にはそのレベルの日本人はいないってだけの話だ。 機械学習やってみたくて金融系ソフトつくってる会社に転職したけどはやくももう辞めたい 営業が機械学習を魔法の道具みたいに思ってると、びっくりするようなタスクがきたりして大変だよね まず客が打出の小槌だと思ってて、更に営業が馬鹿だと何でも出来ると言ってしまうからな 数学をとことん究めるのと悟りを開いて解脱するのはどっちの方が重要ですか? 多分、AIで大御所といったら、Marvin Minskyあたりが最後でその後はいない気がする。
ちなみに有名人というと、Perona, Hinton, Sutskver, Karpathy, LeCun, Bengio, Ng,
Krizhevsky, Malik, Goodfellow, Shmidhuber, Koch, Dean, Jordan, Xing, Koller, Liあたり
といった感じ。現在、AI系の最強の研究機関はGoogle Brain。この絡みでいうと、
有名人の中の最右翼はGoogle BrainトップだったFei Fei LiでGoodfellowであってもLiの部下
となる。Liあたりの人材だと、世界中でおそらく数名。40代でハーバード, MIT, スタンフォード
といったトップ大学の正規教授で、コンピューターサイエンス以外の複数の専門分野
でPh Dを有している。また、AIの将来に対して確固たるビジョンを有しており、Google
の経営陣に対してプレゼンを行い、納得させることができる。さらに、ビジネスネットワーク
が厚く、数千万ドル規模の集金も可能などのスーパーマン的要件が必要。 この有名人を分類すると、哲学者、純粋研究者、解説者、学部長のタイプに分類される。
哲学者タイプは思考の域が既に哲学の領域に達しており、AIが人類に与える影響や
脅威などを真面目に説いている。しかし研究の第一線からは退いており、実際のところ
最新の動向には疎い。純粋研究者は、研究発表しかしないが常に資金不足。
解説者は、研究よりもとにかく語りまくる(時にして間違ったことも言ったりする)。
学部長タイプは、超人的な研究実績に加えて政治的、経済的手腕を有している。 何でもかんでもUIにしろって言ってくるやつなんなの
市販品買えや >>233
もうちょっとだけ考えて発言してほしいんだ
>>236
恐らく当分ない 機械学習が実用的であることが広く一般に認知されたわけで
用語を変えることにもう深い意味がない >>236
大分先になると思うが、量子コンピュータ向けの超並列モデル 面白い人が面白いことをする
↓
面白いから凡人が集まってくる
↓
住み着いた凡人が居場所を守るために主張し始める
↓
面白い人が見切りをつけて居なくなる
↓
残った凡人が面白くないことをする
↓
面白くないので皆居なくなる
今ドコ? 全てのものやことに対して一切執着をしないことが最も大事なのでしょうか?
そうすると、全てのものやことに対して一切執着をしないということに対して執着してしまう気がするのですが、
要するに、意識をしているかしていないかが問題なんですか?
全てのものやことに対して一切執着をしないということを考えた上で、
それを実践してしまうと、結果的には執着しているということになってしまうので、
全く意識をせず、自然に全ての物事に対して執着しないということが大事ということですね。
つまり、本当に自然に全く意識をせずに全ての物事に対して執着しないとなると、
当然自分自身は執着していない自分には気づかない(というより、気づいた時点で意識しているということになり、
結局はさっきも言ったように、執着しているということになってしまう。)
ので、執着しないということはある意味実現できないことなんですね。
何事にも執着していない人を、第三者が見ることはできても、
自分自身ではそれを見ることはできないですね。
自分自身でそれを見れるということは、自分を意識しているということになり、
結局、何事にも執着しないということに執着していることになりますからね。 論理は万能じゃないのよ
論理で掴めないものはいくら頭を働かせても分からない 転職しようかな
もうこの会社では頑張れない
よく10年耐えた G検定の公式テキストのアマゾンレビュー見た?
これ一冊でOK←大嘘である。
詐欺では? いいじゃないの詐欺でも。
詐欺でもなんでも、のっかって儲けたほうが勝ち!
もしかして10年ぐらいたったら立派な協会だと言われるのかね?
欲望がうずまいてるのだけは感じます。 日経テストみたいな糞みたいなテストでも大手企業の昇進要件に入ってたりするから、そのポジションだろう >>231
Fei Fei Liは、ほとんど外では発言しないまま、辞任に追いやられた。
実際のところ、(あまりにも上すぎて)どれほどの研究者なのか、誰もよくわかってない。 >>250
この協会、名簿を見るとトップが松尾氏で、2番目がNvidiaになってて両者ともかなり危うい気がする。
まず、松尾氏だが、現在の異常に競争化が進んだ大学(理系)内で准教授程脆弱な立場はない。
その上、彼のように純粋な研究以外のことで目立つことをやると、気がつくと周りは敵だらけになるかも。
次のNvidiaの立場は、准教授以上に危うい。GPUは本来グラフィックス処理用に作られており、
GPUをAI処理用に使用してもリソースは100%消費できない。かといってV100のように
AI専用GPUは、あまりにも高価になりすぎて、市場性には難が生じる。そのため、AppleやTeslaとか、
大手は、AI処理をASIC化した専用AIチップを自社開発する傾向が強まっている。この傾向が強まれば、
AIハードベンダーとしてのNvidiaの立場は中抜きされる可能性が高い。結果的に松尾氏が教授昇格できず、
NvidiaがAI競争から脱落した場合、この協会は言い出しっぺとスポンサーの両方を失って崩壊する可能性
があるかも。おそらく協会そのものは、Bitcash市場崩壊で、AIに再起をかけたNvidiaが市場再興のために
松尾氏をお立てて作ったものかと。 後発組がGEFORCEを上回るコスパの製品を開発投入できるかも疑問だが
むしろクラウドサービスがどうなるかが気になる V100なんて一枚100万だからな。
クラウドでしか使ったことねーわ。
結局V100を大量に買ってるのってgoogleかamazonだろうし、ASIC作りやってるってのは
まあその通り。PFNも作ってるしnvidiaはまた色々やらんといかんのはまあその通りだろうな。 クラウドがオンプレよりコスパよくならん限り、グラフィックスと並列計算資源の併用はこれからもアリ続けるだろう。 完全なる無になってもう二度と有にならない。
これが俺の最大の夢。 松尾の嫌いなところは
自分の著書に書いたことと
テレビで言ってることが全く違うから。
おそらくテレビ局の人に頼まれて
番組の趣旨に適合するように発言してるのだろうけど
それは科学者ではなくて芸人だ!
芸人の松尾がなんで東大で給料もらってるのか! だから、どの著書とどの番組のこと言ってるのか教えてくれないと君の発言が正しいのか誰にも確認できない 青木ヶ原樹海で首吊り自殺をしたら、遺体は10000000年後ぐらいには自然に消滅していますか? 松尾さんの著書『人工知能は人間を超えるか』の中で
ディープラーニングによって特徴表現学習が可能になったので
言葉と概念を結びつけることによって、人工知能が可能になると書かれていましたけど
本当にそれで実現されると思いますか?
その汎用AIは意識は持ってる?
意識を持たない知能は可能なの?
ディープラーニングの今後の発展のような予想で
言葉と概念の結び付き→言語理解→大規模知識獲得とか書いてたけど
「どこにも意識の要素はない」とショックだったんだが…。 >>266
そもそも意識とは何かって問題があって、何千年も前から解けていない
人間ならまず持っているのに、何故か客観的に存在を証明することができない
そもそもあるかどうかも分からない
だから意識ってのは置いておいて、人間っぽくふるまえるかどうか、役に立つかどうかだけで考えたほうが良い
どうせ答えは出ないので、意識の無い哲学的ゾンビと考えたほうが楽 両眼視野闘争とかが意識の問題で挙がるがそれが決定的な証拠にもならない 意識の定義の話しで、人間のように複雑に物事を考えられて自己を客観視出来るものを意識とするか、または動物の自己意識程度のものも含めるか
はたまた植物や微生物のはって感じで、どこにスコープするかでだいぶ話が変わってくると思う
個人的には、自律的に行動を決定できるならそれを意識と呼んでいい気もするけど、それならそこまでハードルの高い話でもないように思う
地球上の生命、微生物なんかもそこら辺からスタートしたしね >>266は「意識の要素はない」と言ってる時点で意識とは何かが分かってるんだからまず意識の説明をしてもらえばよい 意識や感情に相関した神経活動は既に測定されてるけど
それが意識によって引き起こされた注意によるものなら意識そのものを測定したとは言えない 意識なんて人間的なものが必要なタスクなんて限られてるし 意識の存在を外からの観測で決定するのは不可能
AIの文脈で意識という言葉はAIをディスるための感情的な道具でしか無いな 完全なる無になってもう二度と有にならないようにするにはどうすれば良いのだろうか? 最近はマジモンのオートメールみたいな義手も出てきたし、
神経と意識の関係については研究は進むんじゃないかね。 >>274
消しゴムが自分自身を消そうとしてる
幻が消えれば疑問も答えも消える
論理の土俵じゃ分からない >>273
不可能かどうかを言うためには意識の定義をしなきゃならんわけだけど、そこは大丈夫なの? G検定で、機械学習やディープラーニングの
数学がさっぱりわからん。数学は苦手だ。
数式の意味や記号の読み方からしてわからんし。
そこで、次の2冊のうちどちらがお勧めですか?
やさしく学ぶ 機械学習を理解するための数学のきほん
人工知能プログラミングのための数学がわかる本 https://www.amazon.co.jp/数学用語と記号ものがたり-片野-善一郎/dp/4785315334 無になるとは既にそこに無が存在するということだ
完全な無とは無すら無い状態で無ければ無ら無い 最近の機械学習の本はディープに特化し過ぎてるから
90年代に発売されてるような本で理論や数式が説明されてるものを読んだ方が良い > >284
無が存在するなんてのはただの言葉遊びにすぎない。
無すら無いなんてのもただの言葉遊びにすぎない。
あと、無は状態ではない。
状態というのは有の上での概念だ。 >>284
無が存在するなんてのはただの言葉遊びにすぎない。
無すら無いなんてのもただの言葉遊びにすぎない。
あと、無は状態ではない。
状態というのは有の上での概念だ。 数式さっぱり分からない状態なら一般的な理系学生が大学1年でやるレベルの線形代数や微積を勉強するべきで、機械学習に特化した本は不要
微積は高校レベルがOKならとりあえずは多変量の計算ルールが理解できればよく、ε-δ論法とかは興味なければ無視していい
線形代数は証明が長々と書かれているのは無視して、何に役立てるためにそんなことをしているのかを明確に説明しているものを読めばその重要性と面白さに気付ける 勾配降下法が全然理解出来ないのでバックプロパゲーションが理解できません >>290
坂道を転げ落ちると低いところにたどり着いて止まるでしょってだけの話 >>281
まず猿でもわかる微分積分から始めたほうが良い 砂場で穴を掘ってビー玉を転がしてみろ。うまくいけば一番深いところにいくし、途中の小さい穴につかまることがある。
現実の問題は穴の形が複雑で分からないので下のほうの穴へもっていく工夫が必要。 >>292 >>281
マセマより石村園子先生の「やさしく学べる基礎数学」がいいな。
一冊で微積も線型も学べる。 >>293
その工夫がオプティマイザってやつだっけ
あれ?違うか…?この辺ごちゃごちゃになるんだよな… >>298
白チャートのBでいい。
入試用の本はいらない。
ブルーバックスのマンガ「線形代数」でもいい。微積は良くない。 データサイエンティストの皆さんに聞きたい
ぶっちゃけこの界隈って発達障害多い?
図や表や特定の数字にこだわりがある
プレゼン名人だが雑談苦手
単語解読能力高いけど文章読解能力低い
みたいな人 このサイト、オライリーのText Mining with Rの公式ウェッブ版なんですが、
全文がそのまま掲載されてるでしょうか?
https://www.tidytextmining.com/ >>309
モンティ・パイソンからpythonと名付けた辺りからずっと続いてる気がする >>300
コミュ力重視の世界だぞ
それに医師でもないし、判断出来ないだろ >>311
その「コミュ力」とやらをまず最初に定義しないといけないのでは? コミュ力の定義とか言ってる時点でコミュ力の欠如を自ら示しているようなもの コミュ力がないって周りから言われる人間が、まずはコミュ力の定義とか言い出したらやばいです その周りの人達にコミュがあることを証明しなければその批判は自らに帰ってくる
コミュ力を定量化する必要が最善であることに代わりない 画像分類の勉強をしているのですが現在自分の手元にあるデータは工業製品の画像で全部で200件で正常異常が100件ずつの小規模なものです
水増しを行なってデータも増やしてバッチ正規化も行った結果ROC AUCが0.997という異様に高い結果が出ました
自分と同じデータを使ってる人が居ないので当たり前ですが記事や参考書を読んでもここまで高い値が出ているものを見た事がないので本当に良いモデルなのかどうか疑問です(どうなれば納得するのかという部分もありますが…)
もっと大きなデータセットを使ってみれば違ったパターンも見られるのかなと思って探しているのですが工業製品の公開されているデータセットなどはありますでしょうか? >>310
機械学習分野ってわけでは無いと思うが生き物系好きだよねw >>319
leave-one-outとかでやってその結果?
trainとtestで同じ画像使ったら意味ないよ アラン・コンヌっていう数学者やべぇよな。
神レベルの天才だろ・・・・・。 こんなん出たみたいだけど遊べるかな?
NVIDIAがおよそ1万円で手に入る128コアGPU搭載の超小型AIボード「Jetson Nano」を発表
ttps://gigazine.net/news/20190319-nvidia-jetson-nano/ >>324
個人で買えないと思う
>研究者やDIYメーカー向けの開発キットが99ドル(約1万1000円)で、
>製品版のモジュールは1000個ロットで129ドル(約1万4000円)とのこと 超ハイスペックなデスクトップPCを凌駕する超ハイスペックなノートパソコンないかなぁ・・・・・・。 >>326
昔あった
電気バカみたいに食うから、電源に常時繋ぐのが前提ってノートPC 【AI】NVIDIAがおよそ1万円で手に入る128コアGPU搭載の超小型AIボード「Jetson Nano」を発表[03/19] ・
https://egg.5ch.net/test/read.cgi/scienceplus/1552973461/ >>322
あらかじめ訓練データ、検証データ、テストデータに分割しておいてテストデータを使うタイミングは各エポックで最もロスが小さかったモデルを保存して、そのモデルの評価する時にしか使ってないのでその点は大丈夫だと思います…(kerasのflow_from_directoryを使いました)
やはりデータが少ないとはいえAUCがほぼ1なのはおかしいと認識するべきでしょうか? >>300
文章読解能力低い人にAIに負けない基礎力がつく! ふくしま式「本当の国語力」が身につく問題集[一文力編]を。
https://www.youtube.com/watch?v=PwmtcXe-Sbg >>330
もっと簡単なアルゴリズムの結果と比較白 >>330
データ数がとにかく小さすぎるのでクロスバリデーションするように
データを作った方が良さげ。
5分割くらいでやっても良さげならもうそれでいいんじゃないかという気がする。 >>333
その人が言っていることは眉唾ということに私はしていますが、
ただ、案外多くの人が日本文をきちんと読めていないということを言及したのは一理あると思っています… >>330
あとどの文献で読んだか忘れたけど
伸縮移動やGANで水増しした元が同じデータが学習に含まれていると交差検証にならないって議論があったはず >>338
ええ、たぶん私も日本文が読めていないのだろうな、と推測しながら納得しています
私が日本文が読めない、とすれば、どういうところが読めていないのか興味があるのです >>340
でも、自分がどれほど馬鹿なのかは、なかなか自分ではわからないでしょう?そこに興味がありますね… >>341
わかんないのか本当に馬鹿だね、論理的に考えればいいだけ >>342
論理的…ですか?それってどういう意味でしょうか?
「馬鹿」とか「論理的」とかをあなたはどう定義しているのでしょうか? >>330 です
レス頂いた方ありがとうございます
訓練データと検証データでのaccuracyとlossをプロットするとこんな感じになります
(似たケースの方の画像を拝借しました)
https://i.imgur.com/cg6odWs.jpg
今手元にコードが無いのですが自分の場合50エポック程度回しましたが似たような感じになっていて過学習なのか何なのかよく分からない状態です
交差検証はやっていませんでした…
kerasを使っているのですがドキュメントを見ても交差検証に関して使える関数など見つけられなかったのですがやはりscikit-learnに渡すしかないでしょうか? >>339
そこはヒューリスティクスを使えば良い
人に説明した後、元の文章も見せて言ってる事があってるかどうかを確認すれば良い >>345
疑問なんだけど、どういう気持でそのレスを書いたの?
説明をした気分になった?
論破出来たと思った? データサイエンティストって推理と直観どちらが重要? >350
んなmんどっちでもよくて、PC処理能力を確保するツテ
繰り返しできれば何とでもなる >>303-304
この人達、まじめに記事書いてるのに全然いいねついてないな だって毎度掲示板で宣伝するようなのわざわざ読まないでしょ 仏教では、何事にも執着をしない中道を説いてますよね?
てことは、こうやって研究したり勉強したり思索したりするのは愚の骨頂じゃないのでしょうか? >>362
確かに、良い考察ですね
もっと深く語り合いたいと思いますので、コテを付けていただけないでしょうか? >>363
コテは付けないですが、一緒に深く語り合いましょう。 >>333
新井紀子ってトンデモな馬鹿女
としか思えない。
ヒステリー女のように発言が全く非論理的なんだよ。
キチガイなんだろうな。
本当はどゆ人なのか
実際に会ってから書くね! これって誰のこと?
> 人工知能の分野でも、著名な国立大学の准教授・教授としてネットやテレビ番組にまで有識者として出ているにもかかわらず疑似相関を理解していなかったため、よく調べてみたら論文がおかしかったというケースも散見されるため
https://news.yahoo.co.jp/byline/yamamotoichiro/20190320-00118982/ なんか、統計処理間違えたって話がかなり昔にあったな。
AI関係だったかは覚えてないが。
でも山本一郎自身がうさんくさい人間だからな >>368-369
阪大だっけ
最近捏造指摘されて調査中に亡くなった教授いたよね 思考実験です。
全大(これは「この上ない究極の大きさ」の呼び方とする。)の星を作り、
その星を、全小(これはさっきと逆で「この上ない究極の小ささ」の呼び方のこと。)
の穴に、まったく形を変えずに全秒(これは「この上ない究極の速さ」の呼び方のこと。)
で通すにはどうすれば良いのでしょうか? ID:U3oEusXD0
IPアドレス 180.92.24.149
国 Japan Geolocation country flag
都市 Niigata
郵便番号 950-0965
緯度 37.91611
経度 139.03639
天気 View Weather
タイムゾーン +09:00
現地時間 21 Mar, 2019 08:34 AM (UTC +09:00) 新潟市中央区
市役所の仕事をサボって書き込んでたのか? 首だな。 なるほど、これを>>382の範囲内の役所、新潟市役所、プロバイダ全部に送りつければいいのか
24デフォルトの名無しさん (ワッチョイ 7592-We7c [180.92.24.140])2019/03/02(土) 13:16:36.46ID:uONhGgXx0
※スレッドの趣旨と異なる書き込み
25デフォルトの名無しさん (ワッチョイ 7592-We7c [180.92.24.140])2019/03/02(土) 13:18:10.73ID:uONhGgXx0
※スレッドの趣旨と異なる書き込み
28デフォルトの名無しさん (ワッチョイ 7592-We7c [180.92.24.140])2019/03/02(土) 13:58:09.24ID:uONhGgXx0
※スレッドの趣旨と異なる書き込み
225デフォルトの名無しさん (ワッチョイ 7392-gJdc [180.92.24.154])2019/03/14(木) 01:35:00.68ID:HkjR/q+00
※スレッドの趣旨と異なる書き込み
286デフォルトの名無しさん (ワッチョイ 7392-YSNL [180.92.24.194])2019/03/17(日) 13:01:26.69ID:PmOLKJWh0
※スレッドの趣旨と異なる書き込み
287デフォルトの名無しさん (ワッチョイ 7392-YSNL [180.92.24.194])2019/03/17(日) 13:02:24.93ID:PmOLKJWh0
※スレッドの趣旨と異なる書き込み
371デフォルトの名無しさん (ワッチョイ cb92-fkQ2 [180.92.24.149])2019/03/21(木) 11:18:57.81ID:U3oEusXD0
うんこぶりぶり。
373デフォルトの名無しさん (ワッチョイ cb92-fkQ2 [180.92.24.149])2019/03/21(木) 11:40:40.89ID:U3oEusXD0
うんこぶりぶり。
374デフォルトの名無しさん (ワッチョイ cb92-fkQ2 [180.92.24.149])2019/03/21(木) 12:02:11.97ID:U3oEusXD0
うんこぶりぶり。
376デフォルトの名無しさん (ワッチョイ cb92-fkQ2 [180.92.24.149])2019/03/21(木) 12:06:08.00ID:U3oEusXD0
うんこぶりぶり。
377デフォルトの名無しさん (ワッチョイ cb92-fkQ2 [180.92.24.149])2019/03/21(木) 12:13:42.15ID:U3oEusXD0
うんこぶりぶり。
379デフォルトの名無しさん (ワッチョイ cb92-fkQ2 [180.92.24.149])2019/03/21(木) 12:55:07.56ID:U3oEusXD0
うんこぶりぶり。
380デフォルトの名無しさん (ワッチョイ cb92-fkQ2 [180.92.24.149])2019/03/21(木) 13:13:47.50ID:U3oEusXD0
※スレッドの趣旨と異なる書き込み プロバイダの問い合わせ先。
https://www.ncv.co.jp/contact/
迷惑なのでどうにかしてくれって送っておいた。他の人も頼む
https://i.imgur.com/m1e353m.png
以下、ipで検索した他の書き込み
https://medaka.5ch.net/test/read.cgi/gamespo/1545926371/957
957名無しさん@お腹いっぱい。 (ワッチョイ 1d45-9xIt [180.92.24.149])2018/12/29(土) 18:10:50.54ID:wZPkqcJX0
>>890
それって大まかに言うと強いってことじゃん
http://egg.5ch.net/test/read.cgi/applism/1536068623/
960. 名無しさん@お腹いっぱい。 (ワッチョイ cd01-zBrR [180.92.24.149]) 2018/09/05(水) 01:05:36.58 ID:xjiS0vF70
>>910
結局同じくらいだと思う
でもマギレコの方がUIや起動の速さとかストレスがない感じ
マギレコはオートバトルあるけどFGOは宝具3回使うだけで良いから戦闘が短いのが利点
963. 名無しさん@お腹いっぱい。 (ワッチョイ cd01-zBrR [180.92.24.149]) 2018/09/05(水) 01:06:48.47 ID:xjiS0vF70
>>961
そこで信長の顔面殴れるとか言い出さないあたり善性を感じる ipで検索かけるより
今週のワッチョイで検索かけたほうが
普段常駐のスレがわかって趣味趣向、場合によってはお住まい、職業がわかる場合がある。
暇があれば、>>371書き込んだスレにIPアドレスの提示とアンカー繋げときゃより効果的。 ワッチョイ cb92-fkQ2
でググったら思ってた以上に引っかかってワロタ 参考180.92.24.149のワッチョイ表示
ワッチョイ 7592-We7c 2019/03/02(土)
ワッチョイ 7392-YSNL 2019/03/17(日)
ワッチョイ cb92-fkQ2 2019/03/21(木)
『ワッチョイ』の部分だけは『ワッチ』と変えて検索推奨 SEでも無さそうなのに、何でこのスレを粘着してたのだろうか 世の中はどんどん機械学習の研究・利活用が進んでるというのにスレはお通夜…
てかIPアリでスレ立てたやつの意図は何なんだ さすがにしょっちゅうバトってるC++スレや次世代言語スレとかには敵わないが
ここもそこそこ盛況だと思うがな。
IPありになってスレの勢いがそう落ちたようにも見えないし。 >>395
何の情報も無いからなぁ
趣味で機械学習勉強中だけど、GANの情報すら一切ハラれないし こっちの議論の方が面白い
【統計学】「統計的有意」には弊害があるとして800人以上の科学者が反対を表明[03/22]
https://egg.5ch.net/test/read.cgi/scienceplus/1553318902/ いやIPになってレスの質だいぶ変わったよ
現場の声が聞こえなくなった 現場の声についても、より専門的な研究についてもここより有用な最新情報を紹介するサイトがいくらでもあるからなあ GANとかRCNNは動かすだけでも相当スペックいるし、学習となったらそれに加えてデータも用意しなきゃいけない
新たにモデル考えようと思ったら論文調査から始めなきゃいけない
個人でやるなら学習済みモデル利用したソフト作ったり転位学習くらいしか厳しい グラボに関してはGTX1060ぐらい(2万円ぐらい)あればそれなりに出来るぞ
データはデータセットがオチている
モデルを考えれるレベルなら上記はクリア済みだしもうここにはいないだろう >>402
明らかにパワー不足。
GANはもちろん画像処理全般において物足りない。
20,30カラムのデータを大量に扱うならそのくらいで十分だが
多分ミーハー層がやりたいのはそういったデータ解析ではない。 >>397
きかれりゃ答えるかも知らんがわざわざここに自分からまとめようとは思わないよ
IPありだから質問するときも回答するときもうっかりしないように気にしてはいるよ 機械学習エンジニアってやつになろうと思ってるんだがリッチな環境が進み将来性ないとか友人に言われたんだけどどうなの
研究バリバリの大学院生です >>406
ライブラリ使った機械学習ごっこなら誰でも出来るが、実用に堪えるレベルに性能を引き出すにはデータと向き合って高度で専門的な分析をする必要がある
この段階からできる人材はまだ少ないと思う >>407
丁寧にありがとうございます!
新卒の段階で身につけておいたほうがいいことって何かありますか?
やはりモデルの理論的な部分は深追いした方がいいのでしょうか モデル全体の計算コストやメモリ使用量を事前に求められる程度はあった方がいい てか本気で機械学習やる場合、普通のプログラマは多分つまらんと思うんじゃないかな。
理論で一発うまく行くってもんでもないし。 理論で機械学習やってる人は
人工データでウハウハしてるでしょ
ありえんくらい異端な人工データで >>412
同意です!
実証研究で実際のデータで
さまざまなディープラーニングを
試していますけど、
うまくいかなくて泣きが入ってます。
疲れ果ててます
ディープラーニングがいいといっても
線形回帰より少しいいだけ。
典型的な「良い」データを大量に集めて
分析すればいい結果が出るんです。
実証研究やめて、理論に行きたいですので
勉強します! >>413
https://robomind.co.jp/ainohanran/
ここで、ロボマインド・プロジェクトを終わらせるわけにはいきません。
そこで、皆さんにお願いがあります。
このことを、
おや、誰か来たようだ。
こんな時間に、一体、誰だr・
率直に言って酷い >>415
>ディープラーニングがいいといっても
>線形回帰より少しいいだけ。
明らかにそのデータにたいして良いモデルを見つけられてないだけだろ >>418
Qiitaは入門的な内容も多いけど良い記事が多いよ
この技術は自動販売機とかで使えそうだな
視覚障害者用にも使える >>419
反論しようと思ったらただのゲーム好きか
ロマサガRSは初日でやめたわ 追試できないレベルのいい加減な記述が多いから嫌い>>qiita 別にタダだし、書くのになんか資格が必要でもないんだしqiitaの記事なんてそんなもんだろ。 不思議な事にいくら尋ねても質のいいサイトが存在しない qiita以上に質の良いサイトってあるんでしょうか? >>423
追試できて客観的に効果が認められるような内容Qiitaに書くなんて勿体無さすぎる >>428
論文は実装当初は最先端で情報が煮詰まっているけど、時間が経つとやはり荒削りが目立つ
GANとかその典型で、新しい手法が出来たら必ずすぐにエロ関連で異常な伸び方するだろ
>>429
quiitaの質は聞いてないんだ >>427に対応して429書いたら、質は聞いてないと返ってきた。
>>427は何かの障害でも持っているのでしょうか >>433
qiita以上に質の良いサイトはあるのか?を尋ねてみた
サイトの質の上下はどうでもよくて、それ以上のサイトがあるかどうかが知りたかったんだ
もしなければ、qiitaが最上級ということになる もちろん品質が低いという回答を封殺するつもりの>>427の質問だったんだけど、
特に関係なく>>429が来ると思わなかった
正直、驚いたよ 「qiita以上に質の良いサイトはあるのか」
・qiitaより質が良いサイトの有無を聞いている
・qiitaの質が良いと評価していて、それ以上のサイトがあるのかと聞いている
一応どっちにも取れるからね stackoverflowとか、
他にもてきとうにググれば個人でやってるブログなり質の良いサイトはあるだろ。
そんなことにいちいち答えてやる義務はないわ、自分で探せカス。 質が低い、自分のが上だと思うんなら、自分であげれば良い。
Qiitaに限らず、ネットってそんなもん。
まあGNU感染と似ているので自分の利益と天秤に掛けてちょんまげ。 googleの言語設定変えるだけでqiita弾ける qiitaにガンガンクレーム入れてるけど注意はしてるから〜的な返答が帰ってくるだけだった
あれ推奨様式を見ればわかるが、そもそもレポートを発表するサイトじゃなくてツイッター感覚でメモを書くためだけのサイトだ
個人的には教えてgooより半端でよくないサイトと感じてる 政府、AI人材年25万人育成へ 全大学生に初級教育
https://r.nikkei.com/article/DGXMZO42932250W9A320C1SHA000
政府が策定する「AI戦略」の全容が分かった。人工知能(AI)を使いこなす人材を年間25万人育てる新目標を掲げる。文系や理系を問わず全大学生がAIの初級教育を受けるよう大学に要請し、社会人向けの専門課程も大学に設置する。
ビッグデータやロボットなど先端技術の急速な発達で、AI人材の不足が深刻化している。日本の競争力強化に向け、政府が旗振り役を担う。
目玉に据えるのが高等教育へのAI教育の導入だ。年間約50万人いる全ての大学生や高等専門学校生(高専)に初級水準のAI教育を課す。
最低限のプログラミングの仕組みを知り、AIの倫理を理解することを求める。受講した学生には水準に応じた修了証を発行し、就職活動などに生かしやすくする。
そのうち25万人は、さらに専門的な知識を持つAI人材として育成する。初級水準の習得に加え「ディープラーニング」を体系的に学び、機械学習のアルゴリズムの理解ができることを想定する。
「AIと経済学」や「データサイエンスと心理学」など、文系と理系の垣根を問わず、AIを活用できるよう教育を進める。 機械学習=AI
が完全に定着してしまったな
まぁええけどな AIで魚の仕分け瞬時に 人手不足解消に期待
https://headlines.yahoo.co.jp/hl?a=20190327-00000005-nagasaki-l42
人工知能(AI)を使って魚を種類ごとに仕分けるシステムを、長崎県、
佐世保工業高等専門学校(佐世保高専)電子制御工学科5年の志久寛太さん(20)が開発した。
志久さんは、AI自らが学習して答えを導き出す「ディープラーニング(深層学習)」という手法で、
アジ、サバ、イワシの3種類の魚を見分けるシステムと、仕分け装置を作った。ベルトコンベヤーに
流れてくる魚をセンサーで感知して写真を撮り、AIが瞬時に画像を識別するしくみ。
AIに魚種を覚えさせるため2千枚近くの写真を撮り、100%の精度で見分けることに成功した。
マサバとゴマサバも見分けることが可能に。流れてくる魚のぶれを想定し、向きを変えた画像で学習。
全身が写っていなくても認識できるようにした。 >>445
底辺より文科系大学生だろう。
それよりPythonかける教師が不足してるんじゃないか? >>448
これ何だかんだで瞬時に見分けるってのがスゴい
実際三項分類やってみると精度求めると数秒かかる 慌ててつくったような施策だな
それよか研究開発費やら優遇してくれないの 死んでる魚を種類で分けるのは入門編
動いてる魚をサイズ別にカウント出来る双日ツナファーム とりあえず
少しいい結果が出ただけでラベリング、が大杉やねんこの分野。
ほんまアホかと。 ちょっとしたマイナーチェンジネタと優良ネタを切り分けることが出来ますか?>>435 業務で機械学習なりなんなり触れてる人おる?
客先常駐の人売りSIerなんだが最近上司が機械学習やらの最新技術に触れろうるさい はっきり言ってSIerと機械学習は相性最悪だよ。
保証について基本的に何も言えんのが機械学習だから。 機械学習案件ならそれに合った契約結べばいいだけだろ
それすらできないのは単なる怠慢 メーカーの開発で使ったことあるよ
chainerでトレーニングしたモデルをC++から使ってシステムに組み込んだ >>462
> 業務で機械学習なりなんなり触れてる人おる?
大手SIerに常駐している下請け零細企業のものです。
プログラマ兼SEをやってましたけど統計学を専攻していた関係で、
今では客先にて機械学習をやってます。
プログラマやSEやるよりもずっと楽ですし、面白いし、
おススメの仕事だと思います。
勉強してみてはいかがでしょうか? >>467
必要な知識とかこれは勉強しておくべきだなって感じること何かある? 政府 AI人材育成向け教育改革へ 小中高でもAI授業
https://www.fnn.jp/posts/00415093CX
政府が策定するAI戦略では、AIを利用した産業の発達に、現在の学校教育などが
追い付いていないとしたうえで、世界との競争力を高めるためにも、小中高教育から、
デジタル社会の基礎知識であるAIを、読み書きやそろばんと並ぶ基礎力としたい考え。 そう、面白いのよねこの分野
そういう意味ではオススメだと思う
今、機械学習関係の職種も分化してきてるから、主に当たる職務が何かで求められるスキル・経験も変わってくる >>467
統計の素養って必要?
数学科にはいたが専攻が解析だったから統計の知識はほぼ0なんだ
知識0の人間が始めてもついていけるものか聞きたい 統計学の推論の部分を発展させたのが今の機械学習だから基礎となる知識は大体同じ >>471
これで基本はばっちり
統計学入門、自然科学の統計学(統計)
データ解析の為の統計モデリング入門(ベイズ推定)
パターン認識と機械学習、深層学習(Ian Goodfellow)(DL) >>473
ありがとう
ちょっと本屋行ってくる
機械学習って具体的に何やるかイメージ付いてないんだけど私用のPC一台で何かできるものなの? >>448
すばらしい。
画像認識とか特化型AIはすぐ役に立つね。
汎用型AIって近い将来作れるんだろうか。 >>471
>専攻が解析だったから統計の知識
解析の人なら確率統計は至近距離なのでは? >>478
そうなのか?
ずっと解析ばっかだったから他分野のことだいぶ疎い
自分が研究してた時は確率統計のことは出てこなかったから関わり薄いのかと思ってた >>478 >>479
統計は数学科の中で一番バカにされていたからやらされていなかったんじゃないですか? >>475
超有名なtensor flowはメモリをいっぱい積んでないとサンプルさえ動かない。
グラフィックスボード(10万程度)がないと遅すぎる。 Djangoで自分の機械学習モデルを組み込んで推論させたい
pythonってインタプリタだから都度解釈だよね?
毎回重いモデル読み込んで推論ってすごい効率悪そうだけど
シングルトンとかで管理すればいいの?
仕事で一人で作らされてるんだけど、全てが初めてで四苦八苦してる
どなたか助言ください 予め計算しておいて、テーブルに格納し、参照するだけにしては? >>483
入力のパターンが決まってるんならそれでいいけどそういう話じゃないと思う
こういうの作ったことないけど、自分ならwebのインターフェースと推論部分は別のプロセスにして、ソケットかなんかで通信させる 東大のデータサイエンティスト養成なんとかって本が安かったから買ってきた
たぶんwebで見れるやつと内容同じなんだろうけど面白そうだし週末やってみよう >>483
言葉足りなくてごめん
簡易なレコメンドシステムだけど、ユーザーとアイテム数が多いからDBは厳しそう
KVSうまく使えばいけるかもだけど
>>484
推論用のAPIとかにしてプライベートネットワーク内で動かそうかと思ってた https://twitter.com/learn_learning3/status/1110844583552770048
線形代数の講義名を「AI基礎I」、
微積の講義名を「AI基礎II」、確率・統計の講義名を「AI基礎III」、
普通のプログラミング演習をPythonにして「AI演習」にすれば、
たちまち講義の受講者が爆増し(元々必修とか言わない)、ドロップアウト率が減り、
対外的にはAI教育をしている先端大学になれる。
https://twitter.com/5chan_nel (5ch newer account) >>487
pythonは遅いからJuliaにしょう。 Pythonはライブラリ充実してるけど、言語自体はなんかイマイチ。高速でシンプルな言語がきたら一気に代わられる気がする。
Rの方が息が長いと思ってるんだがどうだろう。 >>470
どう面白いの?
ビジュアル系アート方面の3DCGクリエイターやってるけど、それよりクリエイティブで面白いの? 人によるとしか
3DCGクリエイターがクソつまんないって人もいるようにさ >>490
MITとかの優秀な頭脳が集まる大学の授業で使われてるのが大きいからな。。。
文法がイマイチとか関係無さそうな。
授業で習った言語を研究に使う過程で優秀なライブラリが生まれると言う流れが出来てるし。
どっちかと言うとpythonはコード資産で選ばれる言語。 「MaaS」加速へ90社連携 トヨタ・ホンダ異例の握手
https://www.nikkei.com/article/DGXMZO43062740Y9A320C1EA2000/
これくらいの規模で社会インフラを向上させる仕事はやりがいあると思うがお前らのやってることはただのママゴトだ(´・ω・`) style変換できるGANで文章のstyleを変換することは出来ないか >>497
俺は芸大卒のCGアーティストだ。機械学習はただの道具、絵筆みたいなものだ(´・ω・`) GANが洗練されてきたおかげでCG界隈の人間も興味持ちだしたか
裾野広がってるな GANはlossの取り方であって画像生成の技術ではないぞ 深層学習だとデータと計算資源のゴリ押しが有効だからじゃね?
ベイズとかにこだわりある人は好かんのはなんとなくわかる気はする。 統計畑の人は数学的な正しさを重視しているが、深層学習の人は結果を重視してるからちょっと毛色が違うみたいなことを聞いた >>509
本来であれば受賞者本人は手法のさらなる発展を望むものかと思いますが、この発言から現行の深層学習の方向性がすでに限界を迎えていることが読み取れますね。
https://twitter.com/sammy_suyama/status/1111913530674970624
素人の方も専門の先生も深層学習が何であるかうまく説明できないのですが、それもそのはずで、深層学習は単に画像認識とかに特化した統計モデルの一種に過ぎないからです。特別なものがないので、違いを説明しようがない。
https://twitter.com/sammy_suyama/status/1098532946502332423
深層学習は別にすごい性能を発揮しているとかいうわけじゃなくて、猛烈な局所最適化戦略によって既存のデータセットや評価方法の甘い部分を明らかにしただけだと思う。
https://twitter.com/sammy_suyama/status/1093324653467029504
未だにGANの盛り上がりはまったく理解できなくて,「GANでは鮮明な画像が生成できる」みたいな一文を見るたびに「そもそも鮮明な画像出したかったんだっけ?」って疑問に思います.
技術的には尤度関数を評価せずに学習できるという点もありますが,それは特別新しい話じゃないしなぁ.
https://twitter.com/sammy_suyama/status/1081207245424144384
深層学習sage
https://twitter.com/5chan_nel (5ch newer account) どこにも嫌いだとは書いてないし行間にもそんなこと読み取れないが
単なる事実を淡々と書いているだけだろう
要は基礎を知らずに枝葉だけ理解してもブームが去れば使い物にならないぞ、と当然のことを言ってるだけにしか見えない >>511
精度が良ければ中身はなんでも良いってどこかの記事で書いてあったけどきちんとしてる人からするとモヤモヤするのかな >>511
結果が数学的に正しいとわからなければ深層学習などなんの役にも立たない 深層学習も手法、ツールも多様化・複層化、データの種類も多種多様でとっくにわけ分からんことになっとる プログラマよりも刺し身にタンポポを載せる仕事の方が給与が良いし、ライフワークバランスが担保されている ペゾス曰く、皿洗いが最もセクシーな仕事だと
単調作業ほどセロトニンが出るんだよ >>522
ニアショアの2次請けで手取り15万円ぐらいが地方の零細のデフォ
刺し身にタンポポ載せた方が、ずっと給与が良いな どれだけ頭をかかえてコードを書いても、所詮は会社の所有物 対価、給料を貰ってんだろ。嫌なら自分で会社作れよ、馬鹿なの? FXの自動売買ツールを無料で配布しています。
http://hbgvf.blog.jp >>527
僕と契約して派遣プログラマになってよ! 知識も浅く初歩的な質問で申し訳ないのですが
モデルを作成/評価する際に訓練データに対してはaccuracyが90%、テストデータに対しては70%のように評価を算出すると思うのですが
未知のデータ(テストデータ)に対して評価させるというのは分かるのですが、訓練データに対する評価とはどういうことなのでしょうか?
教師あり学習であれば
このデータはこのラベル、というように紐付けて学習していると解釈しているのですが、
正解ラベルを受け取りながら学習してるのであればスコアは常に100%ではないのでしょうか?
訓練データに対するスコアとはそもそも何に対して評価されているものなのでしょうか?
長文申し訳ありません >>524
トレイの上に盛られた刺し身の位置を確認し、
定型ポイントに1mmのずれも無くタンポポを載せるAIロボットアームを開発しても
工員より給料が低いんだろうな >>530
線形回帰モデルで考えたら分かりやすい
点群を最小二乗法とかでフィッティングしてもすべてのデータを通るわけじゃないだろう
データの数だけモデルの自由度があれば誤差ゼロにできるけど汎用性があるとは言えない 計算ドリルの宿題みたいなもんで、
自分で解いてというかとりあえず回答してみて(順伝播)、○×つけて脳内NN調整(逆伝播)するための正解データだからねー。
丸暗記(過学習)はしちゃダメよ、ってことになってる。
全問正解できるようになったら、そのページ(データセット)は卒業ってことで。 >>524
それは無いな
うちの会社零細だからボーナス無いけど手取り32マン程度ある >>536
東京の仕事の1次か2次請けなんだろ
地方の仕事だと単価が違う。どこぞの零細はエンジニア派遣させて30万円だって聞いたぞw 今おすすめのフレームワークってなんですか?
個人的には、opencv,tersonflow,openAIを使ってます >>538
DataRobotじゃない?
自称データサイエンティストの大半にはコード一行も書かずに勝てるよ とりあえず、opencv,tersonflow,openAI,kerasを適材適所で使い分けるわ
>>539
一行も書けずにってのはちょっと‥
ここプログラミング板ですし >>523
そうなの?
じゃあ何なの?
何ができるの? >>543
DCGANと同じ系統で行けばStyleGANあたりかな
高解像度で生成できる点と生成される画像をある程度(顔なら髪型や性別とか)をコントロールできる >>534
そうか和田秀樹の「暗記数学」はあかんか? >>546
ありがとう
Juliaちゃん覚えてないけどね! >>545
いやこれは全然丸暗記じゃない、むしろDNNの学習に近いのでは?
https://ja.m.wikipedia.org/wiki/暗記数学 機械学習に適したPCのスペックってどんなもの?
グラボ重要? >>325 個人で買えるぞ、スイッチサイエンスがWeb販売してる。 もう品切れで次の入荷は解らないとか。 最初の入荷が4月だって。
もう手に入れた人もいるな。 >>551
グラボ無いと無理
あとデータ大量に使うからSSDも必須
メモリは16GBぐらい、CPUは割と何でも良い。 n=200、変数60個ほどで
DeepLeaningしてみたら
計算に1時間ぐらいかかる!
なにこれ?
やはりグラボは必須かなあ? >>554
何やってるか分からんけど時間かかりすぎ
コードがおかしいか、cpuが弱すぎる >>554 何やったか知らんが、Jetson nano でどのくらいかかるか興味津々 >>557
CPUは第6世代i7でメモリ16Gですので
弱いってことはないと思いますが、
変なことしてるのかなあ?
と思って考えてみまして、
原因らしきものを思いあたりました!
変数と方法を変えて試してみます。
ご指摘ありがとうございました! 別にdeep learningしない機械学習ならグラボはいらんぞ。 LSTMによる小説創作って成功してないよね?
それっぽい文章は書けるけど、意味不明だし
まともなストーリーは皆無だよね。
なんで、成功しないの?意味あるの? >>562
成功しないのは小説生成が金にならんから+LSTMのモデルではできないのだろう
大体文章を学習して小説生成ってのはちと無理がある
背景にある抽象的な場面遷移なりを学習し、そこから文章生成しないと難しいんじゃないかな
多分だけど、台本などを学習した方が良いと思う LSTMだけじゃ小説は無理っしょ?
短歌や俳句ならできるかも? この世界を極める!
これは重要なことで有意義なこと
優秀な人ならどんどんチャレンジするべき。
これはこれでOK。
でもって、大学でそういった授業が始まっているときは
すでに、別な新しい世界が産業界では起こっているという
ことにも横目で見た方がいい。
ただし、AIと同じように一般的に金になるのは20年先だけど。 学部の授業に出てきたら
既に周知の枯れている技術ということ
だろうからね。
研究するなら日本語で書かれた本が
1冊出たところが最終かな? 昔のAI 研究について教えて下さい。
70年代、80年代のニューラルネットワークって
昔のPCでどんな風に設計していたの?
英数字や記号によるプログラミングですか?
Pythonの画面みたいな?
今でもそうだけど。 その年代はわかんないけど90年代なら3層ニューラルネットによる文字認識(まさにMNISTみたいな感じ)をC言語で書いてたよ >>571
80年代後半はPCじゃなくてSunとかのWorkstationがメインだった
GUIはSunViewとかXViewとかで、言語はC
70年代はよく知らないけど、多分DEC-11とかのミニコンとかか あと、大学とかだと、センターの大型コンピューターをTSSで使っていたか
言語はFortranで >>571 昔(戦後すぐあたり)は、アナログコンピュータが多かった。
つまり計算もメモリも人間に近いアナログだった。
微分積分とかは、コンデンサを使ったりね。
その後デジタルコンピュータが発達してきても、人間の脳を再現するには多値メモリが必要なんじゃないかという論文が沢山出されていた。 自分が興味を持ってたのは3値メモリ。
今、抵抗型メモリがではじめてるから多値メモリを使った新しいコンピュータ理論が出てくる時代になってきた。
FPGAと多値メモリを組み合わせると全く別世界が生まれる可能性がある。 この組み合わせはすでにノイマン型コンピューターではないと言われている。 >>576
へえ。ちなみに汎用AIやシンギュラリティは実現できると思いますか? 多値だろうと2値だろうとノイマンコンピュータにかわりはないって誰も突っ込まないのな。 >>571
AIは70年代が中心で80年になると、興味は急速に薄れていった
人から情報を聞き出すExpert Systemという流れだったので無理があった。
にニューラルネットワークについては、その時期に基本は出来上がっている。
言語はフォートランが多くの場合がFortranだったと思う。
80年半ばのQuinlanの発表をきっかけに、機械学習がさけばれはじめ
90年代にり機械学習はAIではなくデータマイニング中心に、本格的に
花開き始めた。
データマイニングでのデータからの知識利用の成功をもとに、AIでも
もっとデータからの知識を利用しようとする流れが徐々に出てきたように
感じるが、AIとしてはディープラーニングが叫ばれるようになるまで
脚光は浴びないでいたのが実際。
あくまで全体的な流れの話なので、部分的、あるいは一企業で力をいれて
等は当然行われていた。ロボットなどね。 >>584
もうしわけない
スマホ改行無視設定しとらんのね
仕事になるといろいろな入力媒体があるから
しとくといいよ。 >>586 そんな設定ないわ、人に要求するんじゃなくて自分で気をつけろ。 なんであなたの表示に合わせんとアカンの機能が乏しい機器に合わせろって話か >>581
ダメというか表現能力は変わらんよねという当たり前のことを言ってるんだけれど。
思った以上にここはやばいな。。 576がなんのことを言っているのかわからんが
表現能力が変わらなくても効率性が違うでしょ >その後デジタルコンピュータが発達してきても、人間の脳を再現するには多値メモリが必要なんじゃないかという論文が沢山出されていた。 自分が興味を持ってたのは3値メモリ。
>
>今、抵抗型メモリがではじめてるから多値メモリを使った新しいコンピュータ理論が出てくる時代になってきた。
>
>FPGAと多値メモリを組み合わせると全く別世界が生まれる可能性がある。 この組み合わせはすでにノイマン型コンピューターではないと言われている。
この辺の話の反論をしてるつもりなんだけどね。
あとは君の日本語理解の問題なので勝手に考えてくれ。 >>11東京大学理学部数学科に入りたい
って言ってる時点でだめだ
大学に入る前に
自分の数学論理の概要が構築されてなければ
将来的になんの成果も残せない
自分の数学論理の概要が構築されてれば
どの大学にはいっても別に問題はない >>577ちなみに汎用AIやシンギュラリティは実現できると思いますか?
汎用AIはAIの技術の延長線上にはないんで
今のAIの研究者には不可能 >>42論理が破綻してる
>全であるなら、それ以外が存在しえないのだから、破壊することも、全以外を認知することすら出来ない
数学で言えばメタ数学でなんで
メタ論理って位置づけになる
これは自己言及で
いわゆる不完全が結論だ
ここで問題になるのは汎用AIだ
汎用AIの研究は「一人称の研究」といわれ
自我(自分自身)を自分の研究のテーマにするってことで
メタ研究で結論は不確定だ >>593 シンギュラリティとは現在の知識では予測不可能な世界だから、現在の延長線で考えても無駄。
しかし必ず訪れる。
回線スピードが早くなり全世界のあらゆる機器が接続された状態になれぽ何が起きるか? 俺はずっと長い間、シンギュラリティは
こないと考えていた。
その根拠は、
1、人の脳は全く解明できていない
(22世紀には解明されるだろうという予測はある。)
2、技術曲線の存在。どのような技術も必ず天井にぶつかる。
3、そもそも刹那も同一でない生体脳を、高々デジタルごときで再現できない。
4.プログラムやデータそのものが膨大過ぎて処理できない。
5、プログラムが巨大複雑になって人が理解できない。
などというもの。
しかし2年前、考えが変わった。
人の脳を超える自我をノイマン型計算機で
作れる可能性があることに気がついたのだ。
来年のAI学会にて動くものを
見せる予定で頑張ってるけど
仕事が忙しくてなかなか時間が取れない。
こうゆうとき、大学の研究所で給料もらいながら
女子大生のナンパしかしてない後輩たちを
見ていると殺意が沸く(笑) >>596 ノイマン型でも出来るだろうけど、多分シンギュラリティが起きる頃には非ノイマン型がかなり使われてるだろう。 >>597
非ノイマン型は
まだまだ先の話でしょ?
30年後ぐらい?
俺はもう死んでる頃。 量子コンピュータも非ノイマン型だろ?
原子スイッチを使った回路や多値メモリなどで非ノイマン型の研究が進みつつある。
FPGAを非ノイマン型と言う人もいるが。 >量子コンピュータも非ノイマン型だろ?
>原子スイッチを使った回路や多値メモリなどで非ノイマン型の研究が進みつつある。
おもちゃと一緒にするなよ
>FPGAを非ノイマン型と言う人もいるが。
いないw 大脳生理学が専門の教授もAIで計算してたら未踏の壁を越えたとか眉唾な話をしてたが
AIはシステム屋が使うより、各専門家で使いこなして貰った方が結果が出そうだ。
どうせ専門知識が無いと変数の定義も値の定量化も出来んし ディープラーニングを器用に編み出す
人間がディープラーニングを編み出すときに考える思考を再現しないと
直観がGAN生成装置とかね 皆さん教えて下さい。
なんで、シェフワトソンは使えなくなったのですか?
シェフワトソンを紹介してるサイト
https://tech-camp.in/note/technology/42720/
シェフワトソンのサイトが表示されないのです。
検索しても、理由がわかりません。
せっかく面白いシステムだと思うのに、使えないのはもったいないです。 >>604
サービスを止めたんだろう
ttps://www.reddit.com/r/AskCulinary/comments/8zpnr0/what_happened_to_ibm_chef_watson/ >>606
実際に料理をしたい人にとっては、面白くなかったということないかな。
面白さは自分で考えるところにあるのかも。 >>606
IBMの技術力の宣伝の一環、商売ではない kerasはオワコンなの?
pytorchがいいの? >>599
ノイマン型じゃないのを非ノイマン型と言うなら、PICマイコンみたいな命令とデータを別々のメモリに載せるのをハーバード型って言うけど。。。 >>611
keras使うくらいなら素のtensorflow使ったほうがマシ。 >>611
終わってはないけど複雑なことやろうとすると途端に難しくなる 大雑把にkerasで書いて細かい所はtensoflow kerasは簡単に書けるが細かいチューニングができない
tfは慣れなければ複雑だが細かいチューニングがやりやすい
その両方のメリットを享受するためにtf側がkerasを組み込んで使えるようにしている >>616
そう
何か別物と思ってる人がいるみたいだけど >>618
外国にはあるということは使えるのですか?
どうやって使える? >>621
スマホからだけど、どこをクリックしたらいいのかわかりません。
どこも単なる紹介記事のようなもので、シェフワトソンは見当たらない。 >>622 本当だね、諦めなさい。 そのうちいろんなベンダーがWatson を使って同じ様なサービスを始めるから。
IBM としてはそれらの邪魔になってはいけないから閉じたんだと思う。
日本だとクックパッドとか始めそう。 シェフワトソンを使ったレシピなんてやってるし。 クックパッドはデータを持ってるから AI (ワトソン) を使う環境は整ってる。 scikit-learnをプロダクトで使ってもいいの? 具体的にsklearnの何をどういうプロダクトで使いたいのか 使ってもいいけどscikit-learnはもうかなり古いぞ >>628
初心者の自分には驚愕の事実…
他に台頭してるライブラリがあるのですか? >>629
keras(tensorflow)かpytorch
ちなみにgoogleとmicrosoftがそれぞれ使っている
更についでに言うと、俺も数年前にscikit-learn使って同じ事思った >>630
ライブラリとしてのレイヤーがぜんぜん違うだろ sklearnは機械学習というよりその前処理に使うのが主 anacondaて使っている人は多いの?
最適化されてなさそうで不安なんだけど 画像や動画、音声なんかでdeep learningやろうって話じゃなけりゃscikitlearnで十分だよ。
古いと言えばそうだが逆に言えばライブラリとしては結構枯れてる。
まあただこの仕事に憧れる奴はミーハーだろうからそういうのは好きじゃないんだろうけどな。 そもそも本格的にやろうとする人はpythonみたいな遅い言語は使わない 専門外だけどちょっと機械学習やったら後悔したよ
もうやめたい >>644 自由にやめれば良い。 誰にやらされてんだよ。 会社ならDataRobotとかSPSS Modelerみたいな一般向けのツール買えばいいでしょ ああいうの逆に使いづれーわ。excelのがマシなレベル。 結局フォーマット合わせなり微妙な調整するんだからスクリプト書くことになる。
だったら最初からpythonで書いた方がマシっていう当たり前のことがバカには通じない。 >>652
だからその手の手軽な分析だったらexcel使ってヒストグラムでも出した方がマシって話なんだよ。
ツールありきで考えるような人間はこの仕事に首を突っ込まない方が幸せだよ。
本人も周りも。 分析や機械学習までツールに投げるかは別にしても、データの準備にTalendみたいなETLツール使ったりは普通にやるだろ >>654
そういうツール使ってうまくいくほど世の中のデータベースはスキーマがまともなことはない。
そしてそういう残念な組織ほど一発ツール使って解決しようとしてドツボにはまる。
スキーマがまともな組織な場合はまともなプログラマがいるのでこういうことで悩んだりしないという
ある種のデッドロックツールなんだよ。 田舎のおじさん企業にも始められる機械学習ツールて位置づけじゃない
そら国内sotaな現場ばかりじゃないからな
MLは高い数学の素養が求められる分またハードル高いし >>659 初学者からプロ用途まで幅広く利用される。 実際にAI系はPythonがなければ始まらない。 データが綺麗ならそりゃツールにぶちこむだけで済むだろうが
そんな簡単な話は世間には転がってない。 >>660
そりゃMLツールで遊ぶだけなら誰でも出来るだろ
ビジネスやら研究の領域になったらそんな寝言は出てこん >>648
分かる。
ビッグデータ分析といっても
ほとんどの会社では
Excelレべル。
python使ってど一のこ―のってのは
増えてきているが
ツール使うほどじゃない。
ツール使うとキレイな
グラフ描けるというぐらい。
Excel使って月収130万の俺が
言うのだから。
儲かってウハウハ! そもそも、
利用についての話か
開発についてか
研究についてか
全部がごっちゃになってるので
話があわんよね みんなDLのフレームワークは何使ってる?
やっぱtensorflow? ラッパーだけどこんあ世間話ならkerasっていっていいんじゃない ブラックホール観測データからpythonで補間しとった >>661 >>659
pythonは遅い。なんでJuliaを使わない。 速いから使うんじゃなくてライブラリの充実度や実装事例が多いから選ばれるんだぞ てかライブラリがなけりゃ速いも遅いもないだろ。
結局ライブラリはcで書かれるわけで言語なんて関係ねーわ。 うん、だからpython向けのライブラリの大半と同様機能のライブラリが多言語向けにあるならそっちでもいいだろうけど今のところその点においてpythonから移るほどのメリットがある言語は存在しない 機械学習じゃないけど、昔のライブラリは色々な言語で出すのが流行ってたね >>675 pythonライブラリがC で書かれてるからって他の言語で自由に使えるわけじゃないぞ。
結局Python でしか使えないからみんな Python を使ってる。 他言語がpythonと同程度にライブラリやらモジュール群、フレームワークが充実してたらここまでpython一択の状態になってない
てかjulia使ってみたいからjuliaエコシステム構築してけろ 初心者はkeras使うべきだったかもしれん…
pytorchわけわからん… pythonの文法、numpy(scipy)、pandas、scikit-learnと覚えること一杯過ぎる 全部覚えてる人なんてごく少数だと思うよ。
できる人は、最低限必要な範囲を覚えてて、それ以外は概念を理解して
詳細がどこにあるか探し方が上手い。 初心者はkerasやkeras-rlで十分だよ
中級以上の用途でも既存クラスを継承して必要な所だけ改修すれば大抵は事足りるし >>680
juliaは純粋に良い言語だと思ったよ
行列周りがスッキリかけていいね
一応pythonのライブラリ呼び出せるから無理すれば使えないことはないが、業務で使うレベルにはないかな フレームワークとライブラリの違いがよくわかりません。
Pythonはフレームワーク? Python は、プログラミング言語です
「フレームワーク ライブラリ 違い」で検索! Pythonは言語処理系で、特定のプログラミング言語を解釈して実行する。
フレームワークは文字通り枠組みで、特定のアプリケーションの共通部分
を提供してくれるので、残りの固有の部分を作ればよい。
ライブラリは一般的な機能をまとめたもので、実績のあるものを選ぶことで
ソフトの品質を保ち、テストや開発を効率的する。
敢えて包含関係をつけると Python<ライブラリ<フレームワーク >>684
良さげなサイト。
これを学んだら、G検定合格に結びつく? 就活で機械学習使えます!って言うにはどんなこと理解してればいいの?
取り敢えずオライリーの機械学習の本は1週(完璧に説明出来はしない)してPytorchのサンプルコード使って画像分類してるくらいなんだけど
ちな新卒 >>692
就活する企業による
既にバリバリ使っていう企業ならもう一歩踏み込んで、どんなモデルで何をやっていたか、ハードウェアはどうしていたのか、なぜPyTorchを選んだのか、など機械学習そのものよりも、どう応用したのかが問われる
一方で全く使っていない企業ではそのレベルでも充分だが、やはり機械学習を使って何をしたのかは問われると思う
ただ、正直新人と機械学習にそこまで期待していないので、インターンとかアルバイトで感触と経験を積むほうが余程良いアピールになる
参考までに自社に機械学習できますで入ってきた新人は
・海外の論文を読んで自分で実装できる
・実際に機械学習で役に立つ何かを作った
・フレームワークの違いを熱く語れる
・FPGAで分類アルゴリズムを実装しました
とレベルは高かったが、入社して活用できているかは疑問
選ぶ会社間違えてないか?と心配になるレベル 普通、企業では体系的に教育受けてるやつしか機械学習枠では求めてないよ。
ただ現在は需要のほうが大きくなってるからガバガバな求人もある 機械学習ブームは後2、3年は持つそうだ
ttps://www.sankei.com/premium/news/190414/prm1904140009-n2.html 入門書レベルの機械学習分かります、チュートリアルレベルなら自力でやれます、程度の人は仮に採用されてもその内に仕事の大半が自動化されて単なる作業員に成り下がるのがオチだと思う >>696
AI とかは、なんか胡散臭いとどうしても思ってしまっていましたが(そんな人は多いのですかそれとも少ないのですか?)、この記事をみて認識を改めました、まだまだ可能性があると踏んでいる人はいるのですね 「頭の良い人」ほど意外と気付いていないことが多いが
世の中には「AI」より劣る人は大量に存在する
そういうのが一巡して一掃されるまでは続くだろ >>699
現在の AI がやっていることよりも少ないことしか考えない人はすくなからずいるってことですか?
たとえば「原発再稼動反対」とか「自衛隊は違憲」の人たちだというのなら、少しだけわかるような気もします
でも私も彼らと似たり寄ったりなのかもしれない、という気もします、なぜなら彼らより考えているという証拠がないから 東ロボが技術的には保守的なのに偏差値50越えてるってことはそういうことだろう
東ロボ以下の人間が半分以上いる >>700 なんなんだこのバカは、只のアラシなのか? 理研は機械学習に全振りしちゃってるからそらオワコンとは言えんわな。 >>701
京大ならともかく東大入試は一通りの参考書を丸暗記すればほぼ合格できる
つまり完璧な読解力さえ身につけられればコンピュータでも合格は容易 >>706
まるで「完璧な読解力」を実現するのが容易みたいな言い回しだな >>710
すごい人がいっぱいですね…
底辺高卒だから…いろいろとしんどいですね… 精度がいい悪いじゃなくて、基本的にタスクが違うと思うんだけど >>714
画像分類なんだけど教師ありと教師なし上司がどっちが良いかも含めて検討しろって言ってた
俺知識が浅いから???ってなったんだけど教師なしで画像分類とかやろうとするとオートエンコーダとか使うんだよね?
多分それのことかなぁ… >>715
教師ありならラベルの推定をするのが目的だし、教師なしならデータの分布自体を学習したりクラスタリングするのが目的になると思うけど
画像分類っていってるんだからラベルの推定をしたいってことなんだろうね
訓練データに全部ラベルがついているなら教師ありで学習するべきだろうし、
ラベルの付いたデータが少なくてたくさんのラベル無しデータがあるなら
半教師あり学習、PU learningや能動学習を検討すべきじゃないかなと思う >>716
ありがとう
分かりやすい
今はラベル付いてる(自分で付けた)画像で分類出来るか勉強してるんだけど実際現場とかだとNG判別したい画像とかってほぼ取れなくて正常10万枚、不良1枚みたいな割合のデータしか取れないんだけどこういう場合も基本的には教師ありを使うべき?
それとも教師なしみたいな正常と不良の分布とかを学習させた方がいい? そのレベルの検出精度を求めるなら機械学習は全然向いてないよ 機械学習とディープラーニングの違いは
一言で言うと
機械学習は、人間が特徴量を設計しなければいけない。
ディープラーニングは、コンピュータが自動で特徴量を学習する。
これでOKですか?
それで、従来の機械学習は廃れたの? ディープラーニングは多々存在する機械学習的手法の1つ
これでOK あまたの分析手法のなかでも
非線形の当てはめチャンピオンが
ディープラーニングと思ってOK? みんなtensorflowとかkerasとか普通に使えるの?
書き方難しすぎてわけわからないんだけど… >>726
それなら、SONYのNeural Network Consoleを
使ってみてはどうでしょうか? >>721
他の手法も廃れてはいない
ディープラーニングはデータが大量にいるのと精度出すためのチューニングが難しいから PyTorch、Chainer、Keras、TensorFlow等の
フレームワークとSONYのNNCなら
どちらの方を学んだ方が良いのでしょうか?
また、これらのフレームワークを使っている人から見て
SONYのNNCはどう思われますか? >>730
主観で言うから話半分くらいで聞いてもらえば幸い
SonyのNNCは値段を気にしなくて良いのであれば、かなり良いと思う
例を挙げると、ResnetにSEでバイパスして結果をさらにLSTMに流して〜、なんてのは慣れていてもコードベースだとごちゃごちゃする
また各レイヤーの入出力の次元を常に意識してコード書く必要があるけど、GUIでそのストレスが軽減されるのは大きい
拙いと言われつつも構造最適化機能がありtalos等のパラメータサーチを自分で設定しなくても済むのは便利だ
GUIで線を繋ぐだけなら初心者でも理解可能だけど、kerasだPyTorchだと言うところから始めると敷居が高くとてもそこまでたどり着けない
にも関わらず、なぜ大ブームにならないかと言うと、理由は二つあると考えている
一つは新たなネットワークを設計する業務がそこまで多くない点
もう一つはバックエンドがNNABLAというkerasでもPyTorchでもないマイナーなものである点
ただONNXという共通フォーマットに対応してからしばらく経つのにまだ流行ってないところを見ると、前者のネットワーク設計業務が業務として定着していないのだと思われる
githubで拾ってきたコードを適当に回せばそれなりに仕事として成立するのだろう sonyのは素人でもポチポチするだけでできるお手軽ツールだからこれを使いこなすことを目的にしてはならない
なぜなら素人でも使えるものを人よりちょっと使いこなせるのは何の強みにもならないから
何となく雰囲気を掴んで今後更に勉強する前段階とするだけならいいけど 一昔まえならダントツでkeras一択だったんだけど、最近MSがちゃんとやりだしてpytorchが進歩しだした
ハッキリ言ってうざい 初心者ならchainerがおススメ。慣れてからpytorhもkerasもtensorflowもやれ。 keras よく分かんないけど出来上がる
pytorch 自分で書けすぎて何やって良いか分からない 別にどれも結局コピペして適当なとこ変えるだけだと思うが。 >>731
日本企業はまだディープラーニングとりあえず成果出しましたレベルなんじゃないか
専門でやってきたとこは違うだろうけど ディープラーニングでなければならないタスクを抱えている企業は少ないのでは? まぁ手段の一つにすぎないよ。俺のとこは年に二つくらい機械学習案件はない 日本がAIで勝つために「知の爆縮」を起こす
── 技術は成熟し、コモディティ化する
https://ledge.ai/connectome-design/
なにを言っているのか、さっぱりわからん。
「一気に事業をグロースさせる」とか
「技術はコモディティ化している」とか
「知の爆縮を起こす」とか
なんかそれっぽい言葉をちりばめると
お金が集まる分野なんだろうってことだけはわかる。 佐藤 聡(さとう あきら)だって(笑)
無能そう
なにも作ったことなさそう
論文もなさそう こういうカスみたいな記事が増えてるってのはブーム終焉かもな。 >>741
ざっと読んだけど、何言ってるか分からないのは単に読解力がないだけだろう
ただし大したことは書いてないので別に理解できなくても問題はない >>731
ネットワーク設計とはどういうことを指摘しているのですか? >>745
文字通りニューラルネットワークの設計
新しい課題に適用する場合やチューニングをする際に必要となる
新しい課題では、似たような課題から似たようなニューラルネットワークを組むことから始める
勾配消失してると感じたらバイパスさせたり、過学習に陥りやすいときに適当にdropout挟んだりと、慣れてくるとどこに何をどこに配置すると性能が向上するのかが見えてくる
また上手く行っていたモデルが、入力データが異なると学習がうまくできないことがある
そこでチューニングという作業が発生する
チューニングは前処理を変えたりモデルを変えたりする
モデルを変えたい場合、例えばCNNの畳み込み層とプーリング層を一段深くしてみたり、全結合のニューロン増やしたり、活性化関数をReLUからtanhにしたり、あるいはオプティマイザをadamからadagradに変更したりする
恐ろしいことに、これだけで性能が恐ろしく向上する事が多々あり、理由が分かることのが少ない
このチューニングも含めたビジネスロジックに組み込むための(ニューラル)ネットワークの最終形態を作ることを設計と言っている nnablaのベンチマークが出てこない
pytorchやtensorflowに比べて速いんかどうかなんだけど >>734
chainerをやろうとしましたけど、
多変量LSTMのサンプルをいろいろ探しても
いいのが見つかっていません。
どこかアホにも分かるようなサイト教えて下さい! 以下のブログを読めば
フレーム問題は解決済みと言えますか?
フレーム問題は解決済み −フレーム問題に見る、AI史の闇ー
https://robomind.co.jp/frameproblem/ フレーム問題は思考実験みたいなもん
全然気にしなくて良い まあそもそも人間もフレーム問題間違ってるやつばっかだし。 pandasのデータフレームにはベクトルを入れられるの? そうなんだ
埋め込みベクトルは各々の要素を次元別のカラムに展開するのが定石なの? 時間という概念が理解できてれば、社会の枠組みに囚われた者たちがどれだけ不自由を強いられてるか理解できるだろう。 >>755
何がやりたいかにもよるけど、別々に入れておくと
統計量出したりリサンプリングしたりplotしたりそのままscikit-learnの入力にできたりとメリット多い よくユーチューブとかでdqnを使った強化学習のシュミレーションとかやってるけど
それらのdqnってディープラーニングは使ってるの?
lstm使ってるだけだとディープラーニングとは言わないよね? >>762
2層のニューラルネットワークでもディープラーニングと言えるの? >>764
二層だけでdlなんて言うアホおらん
そんな厳密に定義求めても仕方ない 2層でニューラルネットワークと言ってた頃はあったですよ >>768
「は?」とか言うくらいならちゃんと間違い指摘してあげて バックプロパゲーションで詰んだ
順伝播はほほーんってなったけど数学分からん俺にはハードルゲロ高い ニューラルネットワークとディープラーニングは根本的に学習のさせ方が違うと思うだけど >>771
根本的に理解してないか大きな勘違いをしてるぞ
ディープラーニングはニューラルネットワークの一種 >>767
ニューラルネットワークは何層でも構わない
以下は一層のニューラルネットワークの例
Input ―> (neuron|activation) ―> Output
ディープラーニングは三層以上のニューラルネットワークと言われている ディープラーニングって単にニューラルネットワークの中間層を増やすだけなんか? 層を増やすだけなら
なんでジェフリーヒントンがディープラーニング発見するまでに時間かかったんや? >>774
中間層を増やすだけでも
それを上手く学習される技術がわからなかった
それを解決できた >>776
自分で少ない層のニューラルネットワークを作って
単純に中間層を増やして動かしてみたら良いよ ディープラーニングの中間層を大脳のようにランダムに配置したり
伝播をカオス化させたりするのはうまくいかないんでしょうか
新しいものが生まれそうな気がするんですが
そういう研究はあると思うのにネットで検索してもでてこない fasttextを使ってみて驚いた
標準ライブラリだけでこの速度と精度を実現してるの?? >>780
今のところ一番近いキーワードはベイジアンネットワークかな
一般的には神経科学を計算機で実現する計算神経科学と呼ばれる分野
バックプロパゲーションは脳内では起きていないと言われていて、今のニューラルネットワークはヒトの脳とはどこか違うらしい >>780
今月の頭にFacebookが公開したrandomly wired neural networksはどう? >>782
昨年発見されて話題になったのは違うの?
人間の脳の解明には
少なくともあと100年
かかると言われてる。
それまで俺は生きていないので
困ってるところ。 脳の解析は必ずしも必要ではない
例えば空を飛ぶのに鳥の羽根を模倣する必要はない。参考にはしてもいいけどね
そういう意味では脳の解析は100年後になるぐらい、どうでもいいことだとは思う 人間はミスが多い
錯覚も多い
勘違いも多い
思い込みで暴走しまくる
人間と同じもの人間の延長で造っても仕方ない
人間を模倣するべきではない ニューラルネットワーク界隈も元々は人間の脳を再現することを目的としていて
どれだけ実用性があるモデルでも学会では脳の機構とはかけ離れているというだけで拒絶されていたが
今やニューラルネットワークは脳を再現することを目的とするものではなくなっている ディープラーニングは層が何層にもなってて深いニューラルネットってことでしょ?
全く知らんけどたぶん歴史的に一層か二層の浅いニューラルネットやってた時期があってそれに比べて深いからディープラーニングって言われるようになったんじゃない? 二層先に繋げたり二層戻すことを
追加すると変更前のデータを参照できると思うのですが
そういうのはありますか? >>793
全く知らないなら書き込まなくてもいいですよカスが >>791
重みの数が一層だから一層ですよ
>>782
どの辺りが適当? >>796
>重みの数が一層だから一層ですよ
なんだやったことすらもない人かもう絡んでこないでね ニューラルネットの層数のカウントで入出力層をどう数えるかなんてカウントする人の定義次第であって決まった方法などないからどうでもいい >>798
定義はあるよ、間違えている記事が多いだけ
入力層を数えない=層と層の間の重みの段数だよ
そうでないとResNet等の層数が変わってくる
ちなみに(neuron|activation)は一つの○ね
書き方まずかったかも知れんね
activationを別の層と考える人もいるようだけど、それはkerasのせいかな すれ違いの理由が分かった
書き方に問題があった
Input layer ―- Hidden layer ―- Output layer
なら二層
書きたかったのは
x ―-(wx|activation) ―- y
ということなんだ
上の書き方なら
Input layer ―- Output layer
に相当する >>802
割と煽った書き方しちゃったけど結構紳士かつ真摯なレスする人なんだね…
新たに書いてくれたような内容なら同意。きつく言っちゃってゴメンね 数学的な知識が乏しい自分がやる事自体間違いなのかもしれないけどみんな数学的な部分も理解してる?
導関数とか勾配とかこんなの分かるとかみんな凄すぎだわ >>804
理解できなくても利用することはできるけど応用がきかないんじゃね? おおよそ高校で習いますやん。理系なら大学1年で格闘してると思うけど。生物や農、薬の人は知らんけどね 数学分からないと言ってる暇があれば勉強すればいいのに
高校3年間の数学ならみっちりやればこのGWの10日間で終えられるだろう >>809
いやほんとそんなレベルだと思う
みんなすげーわ
連休予定ないから勉強する予定
多分中学くらいまで遡る事になるだろうけど…
高卒アホ学校出の俺がやってる事自体知見のある人からすれば迷惑な事なんだろうけどやれるとこまで頑張ってみるわ 人間の脳はどうやってニューラルネットワークから
痛みのクオリアが生まれるのでしょうか? 頭モジャモジャの何とかいうエセ科学者が来てるのか。 >>807
農学は知らんけど、生物は酵素活性の計算とかやるし微分方程式が解ける程度のことはやっているはず。
薬学に至ってはそもそも熱力学やるはずだから偏微分あたりもばりばりやるはず。
まじめに勉強すれば・・・・・だけどw >>813
生物が微分方程式を解くのか、すごいなメモメモ >>817
そら人間かて生物やで
さてはお主シンギュラリティに達したの? 人工知能が生成したデスメタルを毎日24時間配信し続けるYouTubeチャンネル「Dadabots」
https://gigazine.net/news/20190422-ai-generated-death-metal/
デスメタルの楽曲を機械学習させることで、オリジナルのデスメタル曲を作り上げる
ことができるようになった人工知能(AI)の「Dadabots」が、YouTube上で「毎日24時間
デスメタル配信」を行っています。
ジャズや現代アメリカ音楽などの商業音楽を専門とするアメリカマサチューセッツ州の
バークリー音楽大学で出会ったCJ CarrさんとZack Zukowskiさんは、回帰型ニューラル
ネットワーク(RNN)という学習アーキテクチャに基づいて音楽を自動生成する人工知能
「SampleRNN」を改良して、「Dadabots」というデスメタル生成AIを開発。Dadabotsは
学習用に用意したアーティストが作成した楽曲を小さく区間分割し、前の区間から次の
区間を予測して「実際の楽曲の区間」と「Dadabotsが予測・作成した区間」を比較する
ことで自己学習しながら新たなデスメタルの楽曲を生み出してくれるというもの。 俺も数学苦手で高校時代0点を連続で取ったが、
再度勉強してる。この画像の2冊の本で
https://i.imgur.com/3N9mfIl.jpg >>827
どうみても検定料で儲ける気満々でひくわな
逆に検定持ってる方が情弱です!って言っているようなもんだ いまだ毎週のように新しい手法やらアルゴリズムが開発されてるのに検定にどれぐらいの意味があるのだろう 論文読んで楽勝で実装しましたって人見ると絶望する
ちょっとで良いんでその知能分けてください 結構論文見て実装しても論文通りの性能出ないとか言ってる人をよく見るね
githubに公開されたソースをそのまま実行しても論文の通りの出力がされないとかっていうのも見る >>831
あれ、憧れるよね
理解力と実装力の差に絶望する >>824
経済D卒生です。
経済学でも数学使ってるけど
ま、あれはママゴトですな。
現実の経済となんの関係もない
簡単な数式で遊んでるんです。
同級生が幾人か大学教員に
なりましたけど、当時D部屋にて
経済学なんてただの算数遊びであると
みな言ってました 結局制御プログラムの域を出ないから
ある程度人間の側で自明な制約を書いてその制約の元、
古典的に条件分岐させた方が良い予測を出す
人間の書いた制約が違うなら制約外を処理に書いて
機械の予測全体から制約ありきの予測を引けば
部分的に予測を絞り込めるし シナリオ式。 CNNの可視化にGrad-Camが使えるのかなと思って調べてみたけどVGG16とか学習済みモデルを使っての実装しか見つけられない
自作のモデルでやられた事ある人いますか >>837
ノーベル経済学賞がノーベル賞じゃないならどうだというんだ? >>840
アルフレッド・ノーベル記念スウェーデン国立銀行経済学賞
ちなみにこの賞を受賞すると、なんと!あのアダムスミスから電話がかかってくる(実話) >>839
中間表現取ってこれれば後は一緒じゃないの Grad-CAM++がなんだか知らなかったが
論文読む限り確かに重みにアクセスできれば
あとは加工してできそうな気がする 機械学習って難しい。
pythonで何も考えずに
単に分析するだけなら
簡単とか言われたけど
python初心者の俺には
途方もなく難しいです python5年以上使ってるワイ、仕事見つからず(T_T)
おっさんフィルターで弾かれとるんかな 人の役に立つプログラムを作れよ。話を聞くことから始まる。 >>842
>ちなみにこの賞を受賞すると、なんと!あのアダムスミスから電話がかかってくる(実話)
こういうのって面白い・ウケる!と思って書いてるの? ラズパイとか5年も前に遊びで使ってたし、エッジもバッチ来いです プログラマ仕事がなければただのニート 読み人知らず >>849
無学の気に触れてしまったようだな、正直スマンカッタw >>854
お前は無学以前に時頭が悪いから>>842みたいなさむいことしか書けないんだろ AUCってどの程度あればいいものなの?
0.75位だと微妙じゃない? >>846
スキルさえあれば60歳でも
転職できますよ?
統計学か機械学習の論文は書いてますか?
また、どこかの学会で発表はしてますか? >>859
工学の修士持って無いです。
アカ世界は憧れたけど仕事にするにはあんまりねえ 学歴や資格や経歴もその一つだけど能力を示す客観的な指標がなにかないと採用はされないでしょ。
実際能力あったとしても、自己アピールだけじゃ採用しようがないじゃんw
採る側にも他者を納得させるだけの確たる理由が必要なんだよ。 客観的指標なんて中々ないよ
まあ、縁のものだと思って気長にやることだね 中途半端にアカ世界に縁があったので実務的なシステムの経験も浅くてね。
ノンビリやります ビッグデータ持ってる会社は企業規模が大きい場合が多い
企業規模が大きい会社は新卒を採用する傾向がある
企業規模が大きい会社はおっさんを採用しない傾向がある
これがミスマッチの原因じゃない? Redditに最近、上がっていた記事だと現在の世界トップ企業のAI求人数は2500人。
ちなみにGoogle Brainの募集条件は、コンピューターサイエンスのPh.D(か相応の職務経歴)C, C++のコーディング能力(とPhythonもできたら可)、欧米の学術雑誌(雑誌の指定あり)への掲載実績(か学会(指定あり)での研究発表実績)となってた。
この2500人枠の平均初任給は20万ドル。最高はUber自動運転車開発部門(Uber Advanced Technologies Group)の30万ドル。AI業界でもっとも高給が保証されている技術者は自動運転。協調型ロボットと医療診断は、最近になり停滞傾向。 世界トップ企業もいいけど日本でさえ今はどこもAI言ってるんだからそっちの情報も出したれ どこでもAIと言ってるがオッサンには冷たいと思うぞ 高技能の若者が足りない
45歳以上はリストラ対象だそうです 今の若者も元IT奴隷のワイみたいになるのか、生きろよ >>865
それはまあそうなんだけど、自己評価以外の指標ってことさ。 高技能ならおっさんでも重宝されるだろ
高技能の若者とか超絶レアだし待遇悪けりゃあっという間に転職しそう IPAの資格とか統計検定とか?
統計検定2級くらい学生時代の復習だからすぐ取れそう このスレ的には kaggleやるべきって意味か。やっと思い当たった。
ワイが行く面談先で評価されるか見物だ 普通仕事で使ったことがあることが経験として評価されるのだが >>877 そうだけど、一般的には35歳を超えると転職は難しくなる。
余程の実績を提示できなければ難しいな。
人間の頭脳の働きは、30前位が最高だからね。あとは惰性と経験で動いてるだけ。 そもそも今の人手不足って中小企業だけの問題であって大企業では人は十分すぎるぐらいいる
つまりAI人材不足とは深層学習って何?というレベルの中小企業で技術系作業員が足りていないということであり
暗黙の内に想像してしまう大企業の研究開発職が対象になっているわけでは全くない 例え60歳でも
高スキルなら
いくらでも
仕事あるよ >>883
大企業なんて研究の仕事を下請けに
丸なげしてるからな。
あれは驚いたよ。 統計検定はおっさんになると体力的にしんどい
長時間ずっとテストに集中するのきつい。あれは当日の体調管理が全て >>866
学歴職歴なしでこの世界に就職しようと思ったら
作品を発表する or 誰でも参加できる勉強会でLTする or kaggleで入賞する
しかないと思う。俺は飲食店で働いた職歴しかないのに37でこの業界に入って
一年後に年収800万になった超人を知ってる >>887
37歳未経験者でそれはすごい。
今どき人手不足が深刻だから
経験浅くても稼げる
不況になったら真っ先に切られるけどね モデル以外は作れないエンジニアぽい人が量産されるなら、その尻拭いの仕事は幾らでもあるのよ >>891
それも悪くはない気がします、2ch でも最近はみんな同じことしかいわなくなったような気がします >>884 仕事があることと転職とはまた別の話。
転職できないからと言って会社を起こしてもそれなりの収入を続けるのは難しい。 仕事が途切れればなんせ無給だからね。
飛び飛びなら60歳でも70歳でも仕事はあるよ。 >>882
三十後半となると転職が難しいのは同意だけど、余程の実績がないと無理というのはさすがにない
どこの業種でどれぐらいの規模の会社を想定してるのかは知らないけども レファレンスがあれば何とでもなるでしょ
過去のツテを使わずに仕事するのは中々大変 機械学習の世界の現実なんて実力しかないだろ
40代でも、実力さえあれば、余裕でそれなりの待遇の職につける
学歴なんて実力が伴わなければ、就職したあとはまったく評価されない
職がほしいなら、機械学習の技術を応用したwebアプリケーションを自作して、
仕様書つきであちこちの会社に送ればいい。きっとどこかが採用してくれる
そんな奴そうそういないけど >>836
経済学の数理化はアメリカの第二次世界大戦後の数学のポスドク対策。 だれかfit_generatorの使い方を教えてよう >>899
都内の勉強会にいって、斡旋屋に話しかければいい
中小のベンチャーなら人を本気で探してる 勉強会のゴロは実力のある奴しか相手にしない
ポートフォリオに自信があるなら奴らに声をかければいいさ
即戦力ならびっくりするぐらいいいところに就職できる。年齢経歴いっさい関係ない
ただし中途半端な実力で声をかけると尊厳を著しく傷つけられるけどw Youtubeの機械学習というか自動判別の技術が低いので、まじで泣けてくる
というか怒りを感じる!
おれの10倍の給料もらってるんだぞ?それでこれかよ!と怒りがこみあげてくる。
実家の庭で犬を撮影すると、必ずNHKの「雲霧仁左衛門SP4」の
著作権を侵害しています、と判定されるのだ!
なんだこれ?
雲霧仁左衛門SP4というのが見られないから、
何が似ているのかも分からない!
Youtubeって優越的な地位を利用して日本のユーザを
馬鹿にしまくってるんだろうな。
GoogleやYoutubeにはキツイ規制をかけて欲しい!
国会議員にどんどん手紙するぞ!
つーか、もう頭にきまくってるから、
GoogleやYoutubeなんて消えてなくなってもいい!
替わりはいくらでもある!と思う! 仁左衛門カッコイイよね。親が好きだからたまに観るわ >>897
応募者の実力を判定することは意外に困難。
時間をかけて面接をするという手もあるが、面接で多数の応募者を評価することは非常にコストがかかる。
デモサイトを立ち上げてというが、最近はGitHubでソースコードを公開するのが普通になっており、
RedditのAI板で投稿されるこの種の売り込みの多くは、GitHubで公開されてるプログラムを多少、いじっただけというパターンがほとんど。
少なくともAIに関しては、大学で体系的に学習した若手(あるいは30歳以下の中途)を採用するのが一番、手っ取り早い。
また、最近の新卒者は、有名大学の新卒者の方がかえってベンチャー志向が強く、資金力があるAIベンチャーとかだと意外に採用には苦労しない。
次に、40過ぎの再雇用は学歴があっても難しい。まず、第一に、40過ぎだと卒業は2000年代なので例え東大卒でも最新の技術は体系的には学習はしていない。
また、最近の企業が重視する傾向の一つにチームワークがあり、若手のグループ内に一人だけ40代を入れるとチームワークが維持できなくなる。
実際のところ、大手(特に外国企業)で日本の大企業が放出した40過ぎの中堅を再雇用するという例は多数ある。
しかし、この種の再雇用のほとんどは、期限付きの契約社員として雇用されており、企業側が必要としている生産技術的なノウハウを吸収すると再雇用はしない。 では安倍ちゃんの政策で、ロスジェネを大学に入れて卒業したロスジェネでチームを組めばいいんかな 情報系の学部は授業で機械学習ちゃんと学ぶの?
教員はついていけてんのか? 日本じゃ無理でしょうね
コンピュータ菜園と謳ってるところはかなり少数だし >>912
情報系でやってることって数学だよ?
余裕でしょ >>908
基本的に同意
企業が応募者のプログラム作品をいちいち評価するのは面倒だから、
斡旋屋がプログラム作品を代わりに評価するシステムがあるにはあるというだけで、
そのシステムの世間的な認知度が低いからあんまり機能していないし >>904
それをネタに動画作ったらバズりそうだからやってw なんで、誤差逆伝播は逆向きに修正するの?
入力から出力へ修正ではダメなの?
あと、人間の脳も同じように誤差逆伝播しているのでしょうか? >>908
>40過ぎだと卒業は2000年代なので例え東大卒でも最新の技術は体系的には学習はしていない。
情報工学みたいな進歩はやい分野はこれがあるからな
だが数理工学と関係が深い分野は専門性高いから、学校で体系的に数理工学やってた人なら
年齢問わず職場にいて欲しいと俺は思うな >>917
入力から出力への修正やりたければどうぞ、としか。
フィードバックじゃなくなるけどな。 >>917
入力が高次元で出力が低次元なモデルだと誤差逆伝播の方が効率がいいから
入力から計算するフォワードモード微分もある
それと脳でも誤差逆伝播してると主張する論文はある ベイズ的アプローチで
演繹的に導出されたアルゴリズムってあるの?
ねえ須山 どちらにしろこの分野は勉強続けていかないとにっちもさっちもいかなくなる
量子コンピュータが実用化されたりしたらまた地殻変動起こるしな >>918 コストと体力を無視したらその通りなんだけど、やはり若い方がコストパフォーマンスが良いから経験不足でも若い基本能力の高い人間を雇うのが企業の本音。
そういう人間が採れない中小企業が落ち穂拾いをするが、能力を発揮できるような仕事がないケースが多い。 Jetson nanoが出ましたがエッジで機械学習はありですか? >>839
普通に使ってるけどどこで詰まってるの? >>834
うわwマジじゃん
昔、ドワンゴが宮崎駿と会議してたけどダメダメだったし
やっぱりか >>927
なんで閉鎖したん?
ほんまオワコンだな! >>925 有りじゃないの? 使い方によりけりだろうけど。
Googleが作ったチップ(Edge TPU)もエッジで機械学習するために作ったんだし。
エッジコンピューティングの流れ変える--グーグル、エッジ向け機械学習チップ発表
2018年07月30日
https://japan.zdnet.com/article/35123180/
エッジコンピューティングが求められる背景として、収集データを全てクラウドに送るとコストが高く付く可能性があり、またプライバシーや法規制上の理由からクラウドにデータを送れないケースがあることなどを挙げた。
一方で、エッジデバイスやゲートウェイでデータを処理するには、コストや消費電力などが制約になりかねない。
そこで同社が開発したのが「Edge TPU」だ。
2016年には機械学習に特化した専用チップ「Tensor Processing Unit(TPU)」を発表しており、2018年5月には第3世代チップを披露している。
Edge TPUは、これをエッジデバイス向けに小型化したものだ。
機械学習フレームワーク「TensorFlow」を組込機器やモバイル向けに軽量化した「TensorFlow Lite」を使って機械学習の推論モデルを動かすことができる、とRhee氏は話す。
1セント硬貨の上に4つ収まるほどの大きさで、低い消費電力で動作するという。
チップの処理性能については、毎秒30フレームの高解像度動画に対して機械学習モデルを実行できるとしている。 >>914
いや数学がどうこうっていうよりは、雑用で忙しい大学教員教員が最先端の機械学習を勉強する暇があるのか、できたとして授業で教えたことが学生が研究室に入る頃には陳腐化していないかって感じの意味ね
まあごく一部の大学はできるのかもしれないが >>930
卒業時に即戦力になってるか?という意味ならNoだし、税金使うならもっと公共性の有るものを、ってのが本来の大学の目的。 最先端のは研究室でやるんでは。
学部ではベイズとかニューラルネットワークとかで十分単位になるんでないかな 最新の機械学習なんて教えてもそんなものは数年で誰でもポチポチするだけで使えるツールに組み込まれるからな
その根底にある数学的基礎を叩き込んでおけば一生使えるレベルの知識になるけど最新技術の枝葉だけ教えても無意味 ということで機械学習で必要な数学を学んでる既卒者にも期待してやって欲しいな >>925 抜粋引用
「クラウド」からIoTやスマートフォンなどの「エッジ」へと急速に広がる機械学習処理
https://cn.teldevice.co.jp/column/16994/
機械学習の処理はクラウドのような膨大なコンピューティングパワーを用いて実行されるものと思われていたが、
昨今はネットワークなどの末端ポイントとなる端末「エッジ」において機械学習処理を実行するフレームワークが相次いで登場してきている。
今後はエッジにおいても「機械学習処理をどう扱うか」の検討が重要な要素になっていくようだ。
略
ところが最近では、この機械学習処理の基盤が、クラウドからネットワークなどの末端ポイント「エッジ」へと広がってきています。
エッジへの広がりを見せる機械学習処理
そしてGoogleやマイクロソフトは、機械学習の基盤をクラウドだけでなくエッジへも広げようとしています。
略
クラウドと比べればほんのわずかなコンピューティングパワーしか持たないエッジで、果たして動作するのでしょうか?
ディープラーニングでは、学習時には膨大な試行錯誤が行われるため大きなコンピューティングパワーが必要ですが、
学習済みのコンピューターが推論を行うには、それほど大きなコンピューティングパワーを要求されるわけではありません。
マイクロソフトは2018年5月に行ったイベント「Build 2018」で、エッジにAIの能力を持たせる「Azure IoT Edge」を発表しました。
Googleも2018年5月に開催したイベント「Google I/O 2018」で、
iOSやAndroidに対応したモバイルアプリに顔認識など機械学習の機能を組み込むライブラリ「ML Kit」を発表しました。
ML Kitには、Googleの機械学習ライブラリ「TensorFlow」をモバイルデバイスに最適化した「TensorFlow Lite」が内蔵されています。
略
となれば、これらを含むシステムを設計・構築していくあらゆるエンジニアにとって、どのように機械学習機能を活用するのか、
その機械学習機能はクラウドを呼び出すのか、エッジで実行するのか、
そして得られた推論結果はどのように活かしていくのかを考えることが、今後は不可欠な要素となっていくのではないでしょうか。 azureがtensorflowに対応させるなんて意外
ていうかcntkって >>937
機械学習関連の仕事と言ってもピンキリだから
ピンの方で仕事してる分には数学なんていらないんじゃないの >>927-928
ドワンゴが倒産寸前になってる
減資1/100で資本金一億しかない >>927
川上さん泣いてたな
>>928
経営難 まあ、ニコニコはオワコンだしな。
今はYouTubeしか見ない。 >>939
民間企業にて分析の実務を
やっていますが、
数学の知識が必要な場面は
とても少ないです。
ただし近年、コンペ形式で分析の仕事を依頼されることが増えて、
複数の分析者と競わされることに
なったとき、
数学を勉強しているというか
深く理解している分析者が
有利になると思います。 ニコニコ超会議は、何十万人も来てるのだろ?
ニコニコは、新しい文化の中心なのに!
大前研一が言ってた、web では、有料モデルは通用しないという事か?
web では、すべてが無料だから、
広告モデルなど、別の財源を持った会社しか生き残れないという、ビジネスモデル
でも、もったいない。
新しい文化の中心で、最高峰のコンテンツ・技術者を持っていたのに、
ビジネスモデル・経営者だけが旧世代だったから、負けた!
これこそ、中小企業診断士・MBA を取った、プロの経営者を雇えば、復活できるはず! >>944
まともな技術者がいなかった。
だから広告を埋め込めなかった。
ニコ動のユーザーなら
あの分かりにくいクソシステムは
どんな馬鹿が担当してんのかぶっ殺す!
と思ったことがあるはず。
クズニートを集めて
システム構築したから失敗したんだよ
それを理解できない社長も原因 連休中だけどみんな勉強してる?
俺は2時間やっただけで挫折した おう、もう何の仕事してたかも忘れたぞ
セールだったからkindle参考書だけ買ったわ >>947
先週の金曜日の夜から毎日勉強してる
学習済みモデルをデプロイするのに四苦八苦だ
GCPとFlaskで出来そうなんだが・・・。 GCPとFlaskでできる…って
そりゃ仕事じゃないの? AI技術って便利だけど応用方法が思いつかん
皆どうやってお金儲けにつなげてんだろ
一番かんたんに思いつくのはレコメンド機能くらいしかないけど 現在の日本のAIビジネスを分類すると、
A) 時系列データを使った需要予測系(企業ユーザーに多い)
B) センサーデータを使ったプロセスコントロール系(製造業に多い)
C) 教育、セミナー商用
D) 顔認識による店舗管理など画像認識の派生系(数としては非常に少数)
SI業者の場合は、AとBがメイン。最近の大手SI業者の潮流はDataRobotのアプリケーション構築が増えている。
ベンチャーの場合、始めはDとかを目指すが、技術力がないところは最終的には教育、セミナー商法に落ち着く。 >>955
完全にDではないけど画像認識のアプリ出してるわ
サーバー代が結構かかる >>953
先に問題あるいは課題があって、その解決方法の一つとしてAIを位置づけると分かりやすくなる。
たとえば、課題として「人材不足」、問題として「人手が足りない」として、解決方法として
「品質チェックを自動化しよう」となる。その時の効果は「XX人を削減」となる。 薬剤師免許持ってる人が、自動薬剤調整機作ったら面白そす もっと色々あると期待してるけど、カメラにAIという案件は2つ見かけた。結構有名な企業の募集だった >>960 メーカーならそれなりにわかるがそんなに簡単な話ではない。
街の調剤薬局の話だったらお門違い、そんな事許されるわけもない。 大学の講義で基本的なAI技術(自然言語処理やファジィ制御など)を学んだことから興味を持ち始め、独学でPythonを勉強し、最近はKaggleにハマっているのですが、Fラン(ガチBF)私立理系大生でも機械学習を専門とする企業への就職は可能でしょうか? 機械学習を専門とするって、最近商売になりだしたところ?だし、吹けば飛ぶような会社ばかりじゃないのかな
会社に何に期待するかによるか >>963
BFの大学に通ってたけど、意識高い研究室に入れば、国立大学の人たちと混ざって研究発表したし、海外で発表もしたよ >>962
何故許されないか具体的に述べてもらえますか? >>963
結局のところ、ITドカタの業務に落ち着く 薬剤師は法律で色々決まってそうよね。勝手に自動化したら免許取り消されそうだワン >>963
機械学習専門って難しそう
上でも言われてるけど結局色んなことやるITドカタと呼ばれる仕事になりそう
自分がそれなんだけどさ >>970
誰もやらないだけで、以外とどうにでもなると思いますけどね マシンパワーが必要だから財力勝負になってドカタの出番はあんまりないかも、って予感がしてる。
まあ、商売の分野が増えた扱いでお手伝いはできるかな 財力勝負になるレベルのマシンパワーが必要になる世界なんてこの世に僅かしかない
実際は企業が経費としての感覚なら端金レベルで足りる場合がほとんど これからはエッジが普及し始めるから機械学習の裾野は急拡大するよ。
Jetson nano 開発キット 99ドル
Google Edge TPU Evaluation bord 144ドル
Edge TPU USB 74.99 ドル
これらは教育用としても使われるだろうな。 >>968 あのさ、薬剤師って医師の処方箋どおりの薬を出すだけの仕事だよ。精々間違っていないか、飲み合わせが悪い事はないかのチェックが関の山。
勝手に組み合わせたりはできないの。 AI の入る余地は全くない。メーカーが薬を作るためにAI を使うのはありだが。 薬の飲み合わせに関しては、薬剤師の頭よりAIの方が正確な判断できるだろうけど、
作っても既存の業務の補助にしか使われない
人の代替が出来ないと費用対効果は低い >>979
>人の代替が出来ないと
翻訳くらいはできてほしいですけれど、現状でも google 翻訳はみてのとおりの馬鹿だし… 薬剤師を置き換えしちゃってもいいんじゃね?
技術より倫理?や政治的な課題が多そうね >>977
自律学習可能なエッジ向けAIチップを開発--岩手大発のAISing
2019年01月24日
https://japan.zdnet.com/article/35131694/
DBTは、組み込み機器などの機械制御に特化したデータに絞ることでリアルタイムな学習と予測を可能にするというアルゴリズム。
同社ではDBTのSDK(開発環境)をSaaSで提供している。
例えばDBTは、実勢販売価格が5ドル程度のRaspberry Pi ZERO上で実行しても学習には50〜200マイクロ秒ほどで応答でき、推論では1〜5マイクロ秒ほどで応答できる。
「一定範囲の中で確実に応答することが機械制御にとって重要になる」(出澤氏)という。
また、主にIT側で先行するディープラーニングの仕組みは、大量の学習データをクラウド環境の大規模な計算資源で処理する仕組みだが、
マイクロ秒に近いほぼリアルタイムの処理性能が要求される機械制御では、ネットワークを介してクラウドと接続することによる遅延が大きな課題となっている。 >>982
資格の仕組みからぶっ壊せばいいんだよ
自動運転は免許のない人が乗るものになり得るわけでしょ?
政治的課題が多すぎだけどね 資格の仕組みを作るのは役人や政治家であってその中にプログラマー等の理系の意見は含まれないので技術の進歩に応じて変わることなど不可能 このあいだ行った調剤薬局、整理券貰って10分以上待たされた。
処方箋に書いてある薬出すだけでなんでそんな時間かかるの? >>978
用量が間違ってないか
飲み合わせが悪い薬と併用していないか
はAI使うまでもなくDBでチェックできるんじゃね? >>977
2018年02月14日
ARMが新AIプロセッサ「ARM Machine Learning」を発表、クラウドなしで端末による機械学習処理が可能に
https://gigazine.net/news/20180214-arm-machine-learning-object-detection/
半導体設計のARMが、AI処理用プロセッサ「ARM Machine Learning」と第2世代の「ARM Object Detection」を発表しました。
今後、ますます増大する機械学習処理を、クラウドではなく端末側で行うという流れが一気に加速しそうです。
現在、高い処理能力が求められる機械学習処理はクラウドを利用して行うのが主流となっていますが、クラウド利用ではデータを送受信するため応答速度やデータ転送量で不利です。
Hot Chips 30 - Armの第1世代マシンラーニングプロセサ(1) Armが第1世代マシンラーニングプロセサの内部構造を発表
2018/09/19
https://news.mynavi.jp/article/arm_mlp-1/
Arm MLプロセッサ、明らかになったその中身
https://eetimes.jp/ee/spv/1810/10/news023.html >ベンチャーの場合、始めはDとかを目指すが、技術力がないところは最終的には教育、セミナー商法に落ち着く。
セミナーみたいのよく見るなぁと思ったが、結局やることない人達がやってんのかね。
あれやりはじめるともうジリ貧なんだなぁ なぜ我々はセミナーをやるのか。
というセミナーを聞きたくなる >>994
仕事を紹介してもらうか
人売り派遣屋がフリーのやつ確保しようとしてる ワイはフリーだし、スマホ使ってるからIPは問題ないのよ このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 61日 22時間 38分 7秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。