視覚障害者が運転できる車を作る (TED Talks)

Dennis Hong / 青木靖 訳
2011年3月

車の運転ができるのは目の見える人だけだと多くの人は思っています。視覚障害者が自分で車を安全に運転するなど、これまで不可能だと考えられていました。私はデニス・ホンです。視覚障害者のための車を開発することで、目が不自由な人に自由をもたらしたいと思っています。

この話に入る前に、私がした別のプロジェクトについて少しお話しします。DARPAアーバンチャレンジです。これは自動運転ロボットカーを作ろうという試みです。ボタンひとつで、人が何もしなくとも車が自律的に目的地までたどり着きます。2007年にこの競技会で私たちのチームは3位に入り、50万ドル手にしました。それと同じ頃、全米視覚障害者連合(NFB)によって「視覚障害者が安全に運転できる車は作れるか?」という課題が研究コミュニティに投げかけられ、私たちはこの挑戦を受けました。簡単だと思ったのです。自動運転車は既に作っているので、あとは視覚障害者を乗せるだけでしょ? (笑) 大間違いでした、NFBが望んでいたのは、視覚障害者を運べる車ではなく、視覚障害者が自ら判断し運転できる車だったのです。だから私たちはすべてを捨てて一から作り直す必要がありました。

本当にそんなことが実現可能なのか? 私たちは検討のため、バギーで試作をしました。2009年の夏に、国中から視覚障害のある若者を募って車の運転を試してもらいました。まったく素晴らしい体験でした。もっとも、この試作車は設計上よく管理された環境でしか使えず、閉じた平坦な駐車場で走らせ、車線もロードコーンを使っていました。

試作がうまくいったので、私たちは次のステップへと進み、本物の道を走れる本物の車の開発に取りかかりました。どういう仕組みなのでしょう? 結構複雑なシステムなんですが、簡単化してひとつ説明してみましょう。3つのステップがあります。認識、計算、それに非視覚的インタフェースです。ドライバーは目が見えないので、システムがドライバーに代わって環境を把握し、情報を集める必要があります。そのために初期測定ユニットを使います。ちょうど人の内耳のように加速度や角加速度を把握します。その情報をGPS情報と合わせて車の位置を割り出します。それから2台のカメラで車線を検出し、3台のレーザーレンジファインダーで環境中の障害物をスキャンします。前後から近づく車や、道路に飛び出してくるもの、車の周囲の障害物などです。

そういった膨大な情報をコンピュータに取り込んで2つのことをします。1つはその情報を処理して周りの環境を理解すること、ここに車線があり、あそこに障害物があると把握し、それをドライバーに伝えます。このシステムは賢くて、どう運転すると一番安全か判断でき、運転のための操作指示を生成します。問題は、素早く正確に見ることのできない人にそういった情報や指示をどう伝えるかということです。そのために様々な種類の非視覚的インタフェース技術を開発しました。3次元通知音システムに始まり、振動するベスト、ボイスコマンド付きクリックホイールや、レッグストリップ、足を圧迫して合図する靴まであります。今日はその中から3つだけご紹介しましょう。

最初のはDriveGripです。手袋なんですが、関節にバイブレーターが付いていて、ハンドルを回す方向と大きさを指示するようになっています。もうひとつはSpeedStripです。この座席は元々マッサージチェアでした。中身を取り出して、様々なパターンで振動するようにしてあります。それを使って、現在の速度やアクセルやブレーキの指示を伝えます。こちらはコンピュータが環境をどう理解しているかを示しています。振動は見えないので、LEDを付けて何が起こっているのか見えるようにしてあります。センサーのデータが、コンピュータを通してドライバーに伝えられています。

DriveGripもSpeedStripもとても効果的ですが、これらの装置の問題は、操作の指示をするばかりで運転車に自由がないということです。コンピュータがどうしろと指示します。左に曲がれ、右に曲がれ、スピードを上げろ、止まれ。後部座席ドライバーの問題です。それで私たちは運転指示装置よりも情報を伝える装置により注力するようになりました。情報を伝える非視覚的インタフェースの良い例は AirPixです。視覚障害者用モニタと思ってください。穴のたくさん開いた小さなタブレットで、穴から出てくる圧搾空気でイメージを描き出すようになっています。目が見えなくとも、これに手をかざせば車線や障害物を見ることができます。気流の頻度や温度を変化させてもいいかもしれません。これは多次元ユーザインタフェースなのです。こちらは左右のカメラの映像と、それをコンピュータがどう解釈し、AirPixにどんな情報を送っているかの様子です。ここではシミュレータを使い、視覚障害者がAirPixで運転しています。シミュレータは視覚障害ドライバーの練習に良いですが、非視覚的ユーザインタフェースをいろいろ手早く試すのにも使えます。以上が基本的な仕組みの説明です。

ほんの1ヶ月前、1月29日に私たちはこの車を初披露しました、有名なデイトナ国際スピードウェーで行われたRolex 24レースでのことです。きっと驚きますよ。どうぞご覧ください。


(アナウンサーによるテスト走行の解説) 「皆さん、今日は歴史的な日と言っていいでしょう」「NFBの皆さん、特別観覧席にこれからさしかかります」(最高時速43キロ)「今、特別観覧席前です」「ゲート前です。前に出てきたバンの後ろを走っています」(前を走るバンから空き箱が投げられる)「最初の箱が来ます。マークがよけられるか見てみましょう。やりました。右にかわしました。3つめの箱が投げられました。4つめの箱です。2つの箱の間を完璧に通り抜けました」「バンを追い抜こうと近づいています。これこそ運転の醍醐味です。素晴らしい大胆さと巧みさを見せています」「最終関門に近づいています。並んだ樽の間を通り抜けます」(成功!!)

(デニス)「とても嬉しいよ。帰りはマークにホテルまで送ってもらおうかな」

(マーク)「いいとも」


このプロジェクトを始めて以来、世界中の人から何百という手紙やメールや電話をもらいました。お礼のメッセージが多いですが、中には変わったのもあります。「車専用のATMに点字がついている理由がやっとわかったよ」。(笑) しかし時には・・・(笑)・・・しかし時には、抗議とは言わないまでも、強い懸念を示した手紙もあります。「視覚障害者に道路で運転させるなんて、あんたどうかしてる。正気の沙汰じゃない」。この車はプロトタイプであり、今ある普通の車と同等か、それ以上に安全になるまで、公道には出しません。そして実現できると固く信じています。

しかし、このような過激なアイデアを社会は受け入れるのでしょうか? 保険はどうなるのでしょう? 運転免許は? 実現のためには、技術的難問以外にも違った種類の問題がたくさんあります。このプロジェクトの主な目的はもちろん、視覚障害者のための車の開発ですが、可能性としてより重要なのは、このプロジェクトから派生して出てくる価値ある様々な技術です。センサーは暗闇や霧や雨の中を走るのにも使えます。新しいインタフェースと合わせて、目の見える人のための車をより安全にすることもできるでしょう。あるいは視覚障害者が学校やオフィスで日常的に使うものにも応用できます。教室で先生が黒板に書いたことが、非視覚的インタフェースで視覚障害のある生徒にもわかる。そんなことを想像してみてください。とても価値あることです。今日お見せしたものはほんの始まりに過ぎません。どうもありがとうございました。

(拍手)

 

[これはTED公式日本語訳です。翻訳をレビューしていただいたHidetoshi Yamauchi氏に感謝します。]

home  rss  

オリジナル:  Dennis Hong: Making a car for blind drivers