脳-機械インターフェース -Neuroprosthetics-

昨晩の CNN で面白いニュースが紹介されていた。四肢麻痺の人の頭に小さなチップを埋め込み、そのチップから脳波を計測してコンピュータに送り、そのコンピュータと繋がれているパソコンやロボットなどを考えるだけで動かせるという。以前日米に通っていたとき(確か2003年冬)、面白い新聞の記事を発表してディスカッションする授業があって、そのときにサルで同様の実験があったことを聞いた。サルを使ってコンピューターモニタに映し出されたカーソルを動かす実験はもっと前からあったようだけど、当時は全然知らなかった&発表者の彼が記事を持ってなかったのもあって、実はちょっと半信半疑だった。それがもう人間で成功してることにびっくりした。これに関するブラウン大学研究チームの成果が Nature の Volume 442 Number 7099 に載っていて、そのほかにもスタンフォード大の研究グループが、対象はサルだけど、従来よりも正確に4倍も速く制御するアルゴリズムを発見した記事が載っている。といっても、自分は神経科学系の論文を読んでもわからないけど。。

さて、最初の人間を被験者とした研究グループ、ロボットアームを動かすことにも成功している。昨日の CNN で流れた映像では非常にシンプルな動きでまだまだ実用化には程遠いけど、そのうち、脊髄損傷したり腕を失くした人が元通りに腕(もしくは代替えのロボットアーム)を動かせる日が来るだろう。実はこれに関して DARPA(アメリカ国防総省の防衛高等研究計画局)が出資している義肢を作ろうという大掛かりなプロジェクトがある。以前概要だけ聞いたので詳しくは覚えていないけど、相当数の研究者が携わっていて、ウチの研究室もちょっとだけ参加している。関わっている分野はハプティックス(触覚・力覚)の部分。以前、インテリジェント義足の動画を見てびっくりしたけど、コンピュータ制御された義足の研究は非常に進んでいる(興味ある方は robo さんのブログへどうぞ)。それに比べると、義手や義腕(?)はあまり聞かない、と思う。足との大きな違いは、手の場合は感覚がより重視されること。つまり、腕を失った人がロボットアームを取り付け、それを自由に動かすことができるようになったとき、物を握ったときの感触や手触り感をきちんと再現できるかが問題になってくる。まぁかなり長期的なプロジェクトだけど、いつかそんな日が来ればいいなと思う。アメリカ国防総省がらみなのがちょっと気に食わないけど。

● 関連
Nature Japan: 脳-機械インターフェース
Wikipedia: Matt Nagle ← 今回の被験者
WHDH-TV - Boston - 7 Healthcast - Brain breakthrough ← ここにも動画(WMV)がある。
Brain-computer link lets paralyzed patients convert thoughts into actions

TrackBacks (0) Comments (0)

0 TrackBacks

Listed below are links to blogs that reference this entry: 脳-機械インターフェース -Neuroprosthetics-.

TrackBack URL for this entry: http://www.thepath.jp/cgi-bin/mt/mt-tb.cgi/343

Leave a comment