心を読み取る装置?? 入力系でもいければおもしろいのだが [IT業界日記]
ディスカバリーチャンネルの 2030年のテクノロジーで、心を読み取る装置ってのをやっていた。
番組では、デフォルメしていたのだが、Nasaのホームページを見ると、妥当な説明が載っていた。
What is a sub-vocal speech system?
心を読み取るのではなく、仕組みとして、口に出さずに、頭の中で言葉にすると、発音に関連する筋肉制御のための神経に弱い信号が出る。それを検知することにより、発話しなくても、言葉として認識するという仕組みだ。特定フレーズに関しては99%の精度で識別可能らしい。
実用化すれば話さずに話すことが可能になる。会議中に気づかれないように他の人と会話したり出来るわけで、 攻殻機動隊 っぽいことが可能になる。
また、おそらく、脳内で考えた体の動きに関しても微弱に信号は出ているだろうから、仮想空間上でのモノをつかんだり、といったヒューマンインターフェースに使える(SFのロボットはそーやって操作してたのでせうか).....かもしれない。
しかし、脳の思考を神経出力でセンスする仕組みと一般化すれば、これって、視覚とかには使えないのだろうか? つまり、頭でイメージした画像って、視神経の方に逆に流れるってないのだろうか? もともとが入力系だから無理かな。網膜上の神経活動から、考えているイメージとかが読み取れるとかになれば、まさに、動物の考えていることなどが読み取れるようになるのだが。研究している人とかいないのだろうか?
番組では、デフォルメしていたのだが、Nasaのホームページを見ると、妥当な説明が載っていた。
What is a sub-vocal speech system?
心を読み取るのではなく、仕組みとして、口に出さずに、頭の中で言葉にすると、発音に関連する筋肉制御のための神経に弱い信号が出る。それを検知することにより、発話しなくても、言葉として認識するという仕組みだ。特定フレーズに関しては99%の精度で識別可能らしい。
実用化すれば話さずに話すことが可能になる。会議中に気づかれないように他の人と会話したり出来るわけで、 攻殻機動隊 っぽいことが可能になる。
また、おそらく、脳内で考えた体の動きに関しても微弱に信号は出ているだろうから、仮想空間上でのモノをつかんだり、といったヒューマンインターフェースに使える(SFのロボットはそーやって操作してたのでせうか).....かもしれない。
しかし、脳の思考を神経出力でセンスする仕組みと一般化すれば、これって、視覚とかには使えないのだろうか? つまり、頭でイメージした画像って、視神経の方に逆に流れるってないのだろうか? もともとが入力系だから無理かな。網膜上の神経活動から、考えているイメージとかが読み取れるとかになれば、まさに、動物の考えていることなどが読み取れるようになるのだが。研究している人とかいないのだろうか?
2009-02-23 01:05
nice!(0)
コメント(6)
トラックバック(0)
これは,顎の真下の筋電を取っていますね.
声を出さずに,単語をつぶやくと,舌を動かす筋肉が
動きますから,それを測定しているのだろうと思います.
脳性麻痺などで身体が動かない人向けに
結構,こういう研究の応用はありますよ.
問題は,個人差が大きいので,誤認識しないように
学習させることで,この記事もそれについて
熱弁をふるっていますね.
===
つまり、頭でイメージした画像って、視神経の方に逆に流れるってないのだろうか? もともとが入力系だから無理かな。
===
夢を見ているときには,視覚野が,現実にものを見ているように
活動していることは知られています.
ただ,Zekiの有名なモデルのように,
視覚情報処理は階層化され,並列処理されていますので
視覚野の活動を記録することで,何を見ているか
あるいはイメージしているかを知ることは
至難でしょう.
http://ja.wikipedia.org/wiki/視覚野
http://www.jneurosci.org/cgi/content/abstract/11/3/641?ijkey=0a88e98b2ae8fe6bffa6c11c46a47faefff8cabc&keytype2=tf_ipsecsha
by 石原茂和 (2009-02-23 11:01)
近年、MRIなどが発達しているとはいえ、脳関係の研究は、観察が間接的なのがもどかしいですね。
何かしら、もっと高精細かつ直接観察できるブレークスルーがでるといいですね。
ちなみに、「個人差が大きい」に関しては、何年も前からサイバーダイン
http://www.cyberdyne.jp/
の外骨格のデモって、必ず同じ人がやってるんですけど、これもそうした背景がありますよね。昔直接会ったときには、さすがに聞かなかったです。
by Hiroshi (2009-03-27 01:42)
ひさしぶりですね.ご多忙でしたか?
私も多忙です.
さて,サイバーダインですが,トリガーのために筋電をとっていますね.
こういう大きい筋の筋電は,起電量も大きいこと,
また,筋肉のつき方はそんなに個人差がなくて
同じ動きには,同じようなシーケンスで筋肉が動くので
個人差の部分は,わりと短時間の学習で,
システムの方が適応可能だとおもいます.
脳波や血流量のほうが,個人差大きくて難しいでしょうね.
by 石原茂和 (2009-03-27 21:46)
こんにちは、お久しぶりです
最近、海外折衝などが多くてばたばたしてます。
なるほど。サイバーダインに関しては試験的な量産が始まっているとおもうのですが、健常者の例の人のデモ以外を見たことがなかったので気になっていたのですが、それなりの根拠があるのですね。
なんか、進展を観察していると、もう一歩直接的なインターフェイスが出てきてほしいような気がします。
by Hiroshi (2009-04-17 09:12)
む〜,直接的って,直接データがまちがいなくとれるという
意味かしらん?
まちがいなくとれるということから言うと,
意外とジェスチャーとかのほうが可能性あるということで
ビッグブラザーというか..
のネタに接続.
by 石原茂和 (2009-04-17 17:22)
こんにちは
非接触で、手術無しかつ、生きている神経の活動を、個別の神経細胞に関して測定/観測できたりするとおもしろいのですけど。
あと確かに、画像的なゼスチャーも、近さなど、立体的に測定することにより、認識は格段にやりやすくなるってことは、まだまだ工夫の余地があるってことでおもしろいですよね。
by Hiroshi (2009-04-23 01:31)