脳波を読むヘッドセット (TED Talks)

Tan Le / 青木靖 訳
2010年7月

これまでの私達の機械に対するコミュニケーションは、意識的で直接的なものに限られていました。スイッチで電灯を点けるという単純なことから、ロボティクスのプログラミングのような複雑なものまで、機械に何かをさせようと思ったら、はっきりと命じたり、一連のコマンドを与える必要がありました。一方で 、人と人のコミュニケーションは、ずっと複雑でずっと興味深いものです。明示的には示されない多くのことが考慮されるからです。表情やボディランゲージを読むことで、会話しながら気持ちや感情を直感的につかみ取ることができます。実際これは私達の意志決定において大きな部分を占めています。私達がビジョンに掲げているのは、人とコンピュータの対話の中に今までにはなかった人の対話の要素を導入することで、コンピュータが直接命令されたことだけでなく、人の表情や感情にも反応できるようにすることです。そのための方法として、私達の制御や体験の中心にある脳が作り出す信号を解釈するより良い方法はないでしょう。

これはとても良いアイデアに見えますが、ブルーノも紹介してくれたように、2つの理由により容易なことではないのです。第一の問題は検出アルゴリズムです。私達の脳には活動状態のニューロンが何十億もあり、軸索を繋ぎ合わせると17万キロにも及びます。これらのニューロンが情報を伝えるとき、化学反応が起こす電気信号を計測することができます。脳の機能部位の大部分は脳の表層部分にあります。そして知的能力に使える領域を増やすために、脳の表面にはたくさんの皺があります。この皮質にある皺のために、脳表層の電気信号の解釈は難しい問題となっています。皮質の皺の入り方は、指紋のように個人ごとに異なっているのです。だから信号が脳の同じ機能部位から来ているにしても、この皺になった構造のために、物理的な位置が個人ごとに大きく異なり、たとえ一卵性双生児でも 同じにはなりません。表層の信号に一貫した解釈はできないのです。

私達は、この問題の解決のため、皮質の皺を展開するアルゴリズムを作りました。それによって信号をその発生元に対応づけることが可能になり、多くの人に適用できるようになったのです。

もう1つの難問は、脳波を観察するための装置です。脳波測定には通常センサが並んだヘアネットのようなものを使います。写真でご覧頂いているようなものです。その電極を技師が伝導性のジェルやペーストを使って頭皮に取り付けるのですが、これをやるとあとで軽い擦り傷のようになります。これはとても時間がかかりますし、あまり快適なものでもありません。その上、こういったシステムは何万ドルもするのです。

ここで去年の講演者であるエヴァン・グラントに登場してもらいましょう。彼は快く私達の発明のデモへの協力を引き受けてくださいました。(拍手)

ご覧頂いている装置は14チャネル高忠実度脳波捕捉システムです。頭皮にジェルやペーストを付ける必要はありません。装着して信号が安定するまで、ほんの数分しかかかりません。ワイヤレスですので自由に動き回れます。何万ドルもする従来の脳波捕捉システムに対し、このヘッドセットはほんの数百ドルしかしません。

検出アルゴリズムについてお話ししましょう。前に感情表現としての表情の話をしましたが、個人に合わせた簡単な感度調整だけで、すぐに表情の捕捉ができるようになります。今日は時間が限られていますので、認知セットだけをご紹介します。これは心の中で仮想的な物体を動かすというものです。

エヴァンは初めてこのシステムを使うので、最初に新しいプロフィールを作ります。彼がジョアンなわけありませんね。「ユーザの追加」でエヴァンと入れます。認知セットを行うにあたって、まずニュートラルな状態の信号によるトレーニングから始めます。ニュートラルというのは何もしない状態ということです。ただくつろいでリラックスします。これによってベースラインというか、脳の標準的な状態を設定します。脳は人によって異なるからです。これには8秒かかります。それが済んだら、ものを動かす課題をどれか選びます。ではエヴァン、心の中で明確にイメージできるものを選んでください。

(エヴァン「『引く』をやってみます」)

では「引く」を選択します。エヴァンには、物体が画面の手前の方にやってくるところをイメージしてもらいます。その間プログレスバーが伸びていきます。最初は何も起きません。彼が「引く」をどう考えるのかシステムはまだ知らないからです。8秒間「引く」ことをイメージし続けてください。それでは、1、2、3、はい。いいでしょう。これを登録してやると立方体を動かせるようになります。ではエヴァンに「引く」ことをイメージしてもらいましょう。(立方体がぐっと手前に来る) わぁ、すごい! (拍手) びっくりしました。(拍手)

まだ少し時間があるようですので、エヴァンにすごく難しい課題に挑戦してもらいましょう。これが難しいのは、実際の世界には存在しないことをイメージする必要があるためです。「消す」をやります。移動に関するアクションであれば、いつもやっている事なので容易にイメージできます。でも「消す」というのは経験がありません。ではエヴァン、立方体がゆっくりと消えていくところをイメージしてください。まずは練習です。1、2、3、はい。じゃあ試してみましょう。(立方体が一瞬消えかける) ほら! 彼は本当に優秀です。もう一度やってみて…。

(エヴァン「集中力が切れちゃったな」) (笑)

でも一度うまくいったの分かりますよね。あまり長くは保てませんでしたけど。さっきも言ったように、これはイメージするのがとても難しいんです。これのいいところは、「消す」をどう考えるかソフトウェアにいっぺん教えればいいということです。この中には機械学習アルゴリズムが入っていて… (立方体が消える ― 歓声) どうもありがとう。すごい、すごい。(拍手) 本当にありがとう、エヴァン。おかげで素晴しいデモができました。

ご覧頂いたように、このソフトには計測システムがあって、ユーザがシステムに馴染んでいくのに応じて、機能を追加していくことができるんです。そうやってシステムがいろいろ異なる考えを識別できるようになります。一通り検出のトレーニングが済んだら、それぞれの考えをコンピュータやアプリケーションや装置に割り当てることができます。

いくつか例をお見せしましょう。この新しいインタフェースにどれほど多くの応用があるか。たとえばゲームや仮想空間では、普通に表情を直感的に使ってアバターや仮想のキャラクタを操作することができます。もちろん魔法のファンタジーを体験し、心で世界をコントロールすることだってできます。それからまた、色や光や音や特殊効果も、感情の状態に応じて変化させ、リアルタイムで体験を増幅することができます。

世界中の研究者や開発者によって、ロボットや機械を使った応用例が開発されています。たとえば、ここではオモチャのヘリコプターを飛べと念じるだけで飛ばしています。

このテクノロジーは実用的なことにも応用することができます。たとえばスマートホームです。制御システムのユーザインタフェースを通してカーテンを開けたり閉めたりできます。それにもちろん照明を点けたり消したりもできます。

 最後に、本当に人の生活を変える応用です。電動車椅子のコントロールができるんです。この例では、表情を移動コマンドに対応づけています。

(ビデオ) 右目のウィンクで右に曲がります。左目のウィンクで左に曲がります。笑顔で直進します。

ここでは…(拍手) …ありがとうございます。現在可能なことのほんの一部をご紹介しました。コミュニティからの意見や世界中の開発者や研究者の参加によって、このテクノロジーがこれからどこへ向かうべきか見極めるのに力を貸していただけたらと思います。どうもありがとうございました。

 

[これはTED公式日本語訳です。翻訳をレビューしていただいたYuki Okada氏に感謝します。]

home  rss  

オリジナル:  Tan Le: A headset that reads your brainwaves