大きな壁■人工知能は雑談はできても議論はできない
■ このスレッドは過去ログ倉庫に格納されています
反射っつーか、人工知能は文章にでてくる単語に関連してそうな
登録済みの文章を返しているだけで、文章の意味を解釈しているわけではないので
必然的に文章の意味を解釈しなければいけない議論はできない なぜ人工知能は雑談ならできるのか?
それは人間が雑談だと判断しているからです。
人工知能的には雑談も議論も同じことをやっているのですが、
その結果に対して人間が雑談ということなら許容レベルと
判断しているから出来ているようにみえるわけですね
例えば今日は寒い。に対して雑談なら
本当にそうですね。いや暑いだろ。寒中水泳に行きました。なら、めし食って寝ろ。
雑談なら人間はこんな答でもOKを出すんです。 これ手話っぽい何かで適当な単語をゴリラが表して
それを見た人間が、頑張って意味を見出そうとし
どうしても意味が見いだせなければジョークってことにする
ココの話と似ていますね
ココの話でも議論的なことはできませんでした。
雑談ぽくみえるのは、人間がそれを雑談だと解釈しただけでした
会話はできていません。ゴリラはただ単に手を動かしただけなのです http://gorilla-go-rock.seesaa.net/article/386203704.html
そんなわけで、大変残念なことなのですが、就活の面接などで
「きみ、あのゴリラは本当に話していると思うかね」と聞かれたら、
「話しているように見えるのは錯覚 (実験者効果) で、そもそも
心の働き (認知、心の理論) の違いで話すことはできないのです」と
答えておくと無難かと思います。さらに、「話しているように思えるのは、
それが話すわたしたち人間の心の働きだからです」と
申し添えておくと好印象なのではないでしょうか。 雑談とか、納豆に入れたら美味い薬味とか中身がくだらないだけで、立派な議論だけどな。 >>9
話題がそれること無く、そのテーマで30分ぐらい
議論を続けられたらすごいと思うよ
意図的にこっちが軌道修正しない限り無理だろうね また、議論は結論を決めることなので、
納豆に入れたら美味い薬味はなにかというテーマで
論理的な話し合いをして結論が決められると良いね
もちろん人工知能が言ったことに対して人間が妥協して結論とするのではなく
しっかりと議論を重ねて理由を持って結論を出すこと そこまで書く意味あるの?
そういう議論するプログラムかけばいい こんなの
http://www.asahi-net.or.jp/~jm9t-tyng/30_box/03_solarlight/solarlight.htm 僕の知り合いの知り合いができたパソコン一台でお金持ちになれるやり方
役に立つかもしれません
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』
WH5B2 AIを人間と見做そうみたいな話があるみたいだけど
ちゃんちゃらおかしいよな。
人間なんて所詮細胞一つ一から満足に作れないのに
人間の一番複雑な機能である精神とか人間性を作れると思ってる時点であれだわ。
なんか、Na+とかClーの濃度を調節できるシステムを作って
これは浸透圧を一定にしているから細胞なんだみたいな話。
AIがある程度意味の通った返しができたとしても
それは浸透圧を一定に保てましたという話であって
それが実際に細胞なのか人間性なのかという議論をすること自体が
馬鹿々々しいんだよなあ。 そうか?
良くできたAIは人間を超える
人間はAIの一種でしかない AIじゃなくても人間は超えてる
計算の正確さと速度は人よりも圧倒的に上 逆に考えるとさ、斑らボケ老人の話し相手なら今のAIでも充分務まるんじゃね?
ゴマフアザラシみたいな介護ロボットに会話機能つけたらよくねあ おしゃべりミーちゃんがAI積んでるとは思えないけど売れてるみたいね そう。その程度でいいんだよ。
高度なAIは求められていない 良く出来たAIなんで可能だと思うのがクソ。馬鹿の発想であり、現実にはありえない。
スマホの会話エージェントなんてものは、しょせん検索エンジンを利用した会話エージェント
に過ぎない。入力と出力を文字列から音声認識と音声合成に変えただけ。
こんなものを人と等しい知性と勘違いするのはバカだ。 Google Homeも
「エアコンつけ・・・ないで」って言っても
つけてくれるからなw google検索の進歩
スマホに向かって
「しーえすえすで、あぶそりゅーととりれぇーてぃゔの違いは?」
5年前
「sea esエステ、䵷部素√、入り江TVの近いわ」
今、
「CSSで、position:absoluteとrelativeのプロパティの違いは?」
日本人の発音での音声認識もさることながら、補足が付いたり、予測変換の精度も上がっている。
が、しかし、この先の会話がどこまで進歩するのか? >>25
Google翻訳で誤発注。15000個の卵を前にノルウェー五輪代表チームは…。
https://tabi-labo.com/286415/diner-olympiceggs
こうなるのが怖い
精度は上がってるのだろうけど、今までの文法を理解するやり方じゃなく
統計的に出す手法だから、正しいのかいつも不安になる。
例えば、スマホに向かって
「しーえすえすて」
と聞いた時、
「See ESエステ」
と正しく認識してくれるかどうか疑問だ >>26>例えば、スマホに向かって
「しーえすえすて」
と聞いてみたら、
「CSSって」と画面に表示されて「カスケードスタイルシートの情報を表示します」ってしゃべった。
人間社会だって統計処理の集合ではないのか?
>>24だって、「赤上げて、白上げないで、赤下げて」みたいな、慣れの問題じゃないかと。 人間がやってるのは推測だと思うよ。推論じゃなくて推測
統計処理はデータが大量に必要だけど
推測なら少量でもいいし無くても良い
「白下げないで」みたいなフェイントを一回でもすれば
統計的には確率が低くても、次から注意しなきゃって思うでしょ? 今のところ
>>26のような誤発注を一回でもすれば、次から注意しなきゃってAIは思わないな。。。 >>29
それを踏まえてシステム設計する。
怠ると、〇×は「頭の悪いAIスピーカー」のレッテルが貼られるだけ >>30
それやると結局人間が判断することになって
AIじゃなくなるんだよな AIに学習させるっていうのは
めちゃくちゃな体力あるバカにものを教えるのと同じだよ。 ■ このスレッドは過去ログ倉庫に格納されています