写真:陸上トラックに貼られた黄色いテープの上を走る御園さんと、伴奏するスタッフ

Project Guideline - 誰もが自由に、思うままに走れるために。

Project Guideline は、視覚障がいのある人が、Google AI の力で一人で自由に走ることを可能にすることを目指す Google Research の研究開発プロジェクトです。

日本では、日常的に運動をしている人は約6割。

しかし、視覚障がい者の間では約3割にとどまっている。

スポーツを楽しみ、スポーツに参加する機会を持つことは、すべての人に法律でも保障された権利です。しかし、様々な障がいのある人たちにとって、この権利は必ずしも現実となっていません。例えば自分一人で思うままに走るということさえ、視覚障がい者にとってはほぼ実現不可能な夢となってしまっています。

「視覚障がいのあるランナーが一人で走るために、
Google のテクノロジーを使ってできることはないだろうか?」

米国の NPO、Guiding Eyes for Blind の CEO であり、盲目のマラソンランナーでもあるThomas Panek さんからのこの問いかけに答えることが、私たちの出発点でした。すべての人が、自由に、自立して自分の可能性を追求できる。そんな社会を目指す小さな一歩として、この実験は始まりました。

誰もが使えるようになるためには、誰もがアクセスできる技術でなければなりません。どこにでもあるスマートフォンとヘッドフォンを使い、ランナーをガイドする技術を提供することを目指すこの研究開発プロジェクトは、Panek さんと協力して最初のプロトタイプを開発するとともに米国で 2020 年に発表されました。

パラスポーツ、そしてスポーツ全般への注目が高まる今年、このプロジェクトを私たちは日本でも発表します。視覚障がい者のための情報技術アドバイザーであり全盲のランナーでもある御園政光さんを最初のパートナーとして、さらにより多くの視覚障がいのある方たちに体験していただき、この技術をさらに向上させていきたいと考えています。

Project Guideline の仕組み

Project Guideline は、Android スマートフォン上で動作する機械学習技術を駆使した画像認識モデルを使用しています。地面に引かれた色のついた線を見分け、その線がランナーよりも左か、右か、中央なのかを瞬時に判断し、ヘッドフォンを通じて音声シグナルを送ります。ランナーはその音を頼りに、線から逸れることなくランニングを楽しめる仕組みです。
Project Guidelineが、利用者に音で伝える様子を示したアニメーション
人間の目では道路に引かれた線を見分けることはとても容易ですが、それを機械で処理することは決して簡単ではありません。ランナーが装着したカメラは常に揺れていますし、外に出れば光の向きや明るさも常に変化します。コースには影や落ち葉が落ち、地面の色も一定ではありません。コースのカーブにも対応しなくてはなりません。
Project Guidelineが、どのように線の方向や角度を認識しているかを示したアニメーション
そうした様々な条件下でも正確な判断をできるよう、私たちは Google が公開する機械学習用オープンソースライブラリ TensorFlow™ を活用した機械学習モデルを構築し、可能な限り多様な状況で動画データを収集してモデルに学習させ、異なる環境でも精度とパフォーマンスを向上させていく取り組みを続けています。また、当事者である視覚障がい者コミュニティの方々にデザイン・開発の過程に参加していただくことが最も大切だと考え、米国と日本の両方においてパートナーとなる団体と協業し、視覚障がいのあるランナーの方々に実際に Project Guideline をテストしてもらい、ユーザーにとってより安全で使いやすいシステムにしていくためのフィードバックをいただくことに取り組んでいます。

パートナー募集

Project Guideline は、初期段階の開発プロジェクトです。初期のプロトタイプ同様、このプロジェクトの未来にとって、視覚障がい者コミュニティの皆さんとの緊密なパートナーシップがとても重要です。機械学習モデル改良のための動画データ撮影やユーザー体験向上のためのフィードバックを収集するイベントやフィールドテストに協力いただける企業やNPO、また、テストに協力してご意見をいただける視覚障がい者の方を募集しています。

ご関心のある方は下記のフォームからご連絡ください。

パートナーシップ