※リンク先微グロ注意
脳の信号から合成音声、言語障害の人に希望 米大学の研究で - ロイター
https://jp.reuters.com/article/science-speech-idJPKCN1S10LT

>米カリフォルニア大学サンフランシスコ校(UCSF)の科学者らは、被験ボランティアの脳に
電極を埋め込み、脳の言語中枢からの信号を解読。唇、あご、舌、喉頭の動きをコンピューターで
シミュレーションし、シンセサイザーで音声を生成した。不明瞭な一部を除けば、ほとんどが分かり
やすいものだったという。

>研究者の間では、今後数年のうちに、言葉に障害のある患者のために臨床的に実行可能な装置が
開発される可能性があるという希望が生まれた。

>報告書の著者の1人で、UCSFの博士課程の学生であるジョシュ・シャルティエ氏は「最初に
結果を聞いた時、わたしたちはショックを受け、耳を疑った。シンセサイザーから聞こえる音声に、
実際の話し声の多くの部分が含まれていたことは非常に刺激的だった」と述べた。

>同氏によると「音声をもっと自然で分かりやすいものにするためには、もっと多くの研究が必要なのは
明らかだが、脳の活動からこれだけ多くの情報を解読できたことには非常に感銘を受けた」という。


いろんな事が脳波コントロールできるようになってくねえ。
案外と脳の出力系って単純なもんなんかな。