あらゆるデバイスのUIをユーザーに最適化・アクセシブルにいつでも変換するプロジェクトGlobal Public Inclusive Infrastructure (GPII)

 今回はミツエーリンクスさんのブログのエントリ「アクセシビリティに影響を及ぼした10の出来事」で紹介されていたGlobal Public Inclusive Infrastructure (GPII)を紹介します。スイスに拠点をおく国際団体Raising the Floor (RtF)によって進められているコンピュータやウェブ、プラットフォームのインターフェイスをクラウドベースでよりアクセシブルにするプロジェクトです。
Global Public Inclusive Infrastructure (GPII)
http://gpii.net/
 GPIIは標準的なデバイスのインターフェイスでの利用に困難を感じる人たちのために、いつでもどこでもどんなデバイスを使用していても、その標準的なインターフェイスをクラウド経由で各ユーザーに最適化されたアクセシブルなインターフェイスに変換して提供することを目的としています。
 以下の動画がGPIIの概要を非常にわかりやすく紹介しています。

 上の動画に使用されているイメージをお借りしてGPIIのインターフェイス変換の仕組みを紹介すると以下のようになるようです。開発途上のようですので、あくまでイメージです。
ユーザーに最適化されたインターフェイスへの変換は以下の3つの機能をもったシステムを連携させることで実現されます。黄色がユーザー情報を格納する機能を受け持ち、緑色が様々な支援技術機能を格納する機能、オレンジ色が様々なデバイスの情報を格納する機能を受け持ちます。 
スクリーンショット 2013-07-23 1.47.17
 まずユーザーは、自分自身に適したインタフェースをGPIIのクラウドサーバーにウィザードを用いて登録します。これは上の黄色部分のシステムに登録されます。登録されたパーソナルプロファイルは、インターフェイスのパーソラナイズに使用されます。
スクリーンショット 2013-07-24 0.28.40
 
 
 実際にデバイスのインターフェイスの変換を行うフローは以下になります。
 GPIIのサーバーにアクセスするとまずは黄色部分のシステムにつながります。そこでユーザーが登録したパーソナルプロファイル情報を取得します。
スクリーンショット 2013-07-23 2.04.11
 
 パーソナルプロファイル情報を取得したら、引き続き様々な支援技術機能を格納するサーバー(緑色)に引き継がれます。ここにはアクセシビリティ開発者が様々なニーズに応えるために開発した様々な支援技術が格納されています。この緑色部分に格納された様々なツールを用いてユーザーに適した形式に変換します。テキストを音声に変えたり、テキストを点字に変換するような機能をここで担ったりするのでしょうか?
スクリーンショット 2013-07-23 1.50.45
  
 緑色部分のシステムでユーザーが求めるインターフェイスに適した形式に変換したら、次はオレンジ色部分のシステムに渡されます。ここでは、様々なデバイスに関する情報を格納されていますので、デバイス情報を取得します。
スクリーンショット 2013-07-24 1.19.07
 
 最終的にユーザーとデバイスに最適化されたインターフェイスに変換してユーザーのデバイスに戻します。便宜上、インターフェイスという言葉を用いていますが、もちろん見た目の表面的なものだけではなく、インターフェイスから提供される情報も変換して渡されるのだろうと思います。
スクリーンショット 2013-07-23 1.49.33
 
 Global Public Inclusive Infrastructure (GPII)の「基盤(Infrastructure )」という言葉が意味するように、GPIIはアクセシブルなインターフェイスに変換する新技術を開発してそれを提供しようというよりは、その下の部分、つまり、支援技術をユーザーに提供するために必要な基盤になることを志向しています。GPIIが基盤となり、その上で支援技術をのせることで、支援技術の独自開発が必要な部分を減らし、さらには各技術の相互運用性を向上させる。そうすることで、多種多様な支援技術の開発を促し、それを手頃な価格でクラウド経由であらゆる場所に行き渡らせる。そんなことを目指しているようです。
 GPIIの支援技術開発支援の一例ですが、GPIIは容易かつ低コストに支援技術を開発するツールなどを開発者に提供することで、開発のハードルを下げ、様々なツールの開発を促そうとしています、さらに開発した支援技術を世界中に行き渡らせるためのプラットフォームも用意するそうです(それが緑色部分のシステム)。
スクリーンショット 2013-07-23 1.52.50
 対象となる「あらゆるデバイス」には空港の発券機や飛行機の座席の背面に据え付けてあるモニタなど公共の場で使用されている据え付けの機器も含まれているようです。これが実現できたら本当に凄いことです。
 一番優れたUIとは何か、という議論に結論が出るとは思えませんが、個々のユーザーとそのユーザーが使用するデバイスに最適化されたUIは、この種の議論の究極に近いところの答えの1つではないかと思います。

点字を電波や信号で遠方の人間の体表に情報として伝える「体表点字」

 点字は、文字情報を取得出来る範囲が手の届く範囲にとどまってしまいます。しかし、点字の書かれてある場所に指を差し出さなくても、点字を電波などで体表のセンサーを通じて情報として伝えられる「体表点字」という技術があるそうです。

  目を見える人は、看板や施設内の案内図にある文字情報を離れたところから取得することができますが、この「体表点字」も同じようなことが実現できる仕組みかもしれません。ネットワークを介してはるか遠方の人に伝えることももちろん可能でしょうから、いろいろな可能性がありそうです。
 以下のような基礎実験が行われた(行われている?)そうです。

1.一人住まいの盲ろう者に対する遠隔からの支援
 「テレサポート」(テレビ携帯電話遠隔支援)により、テレビカメラで映した缶詰などの文字を、遠く離れたサポーターに体表点字を使ってすぐに説明してもらうことができます。また、手紙なども読んでもらえます。
2.視覚障害者の歩行支援
 電車や自動車などの騒音が激しい場所では、視覚障害者は周囲の状況を正確に把握することが難しくなり、音声だけで適切な情報を提供できないこともあります。体表点字なら、騒音に妨げられることなく情報を伝えることができます。
3.聴覚障害者への応用の可能性
 電波によって伝えられる体表点字を用いれば、音声による呼びかけを受けられない聴覚障害者に対する呼び掛けも可能となります。
from 体表点字

関連エントリ

脳から発信する信号を検知して身体を動かせない人でもPCへの入力を可能とする支援技術「スイッチHAL」

  筑波大学の山海嘉之教授の研究グループがロボットスーツHALの応用技術として開発した「スイッチHAL(仮称)」がすごい。脳から筋肉に向けて発信する信号を検知して身体を動かせない人でもPCへの入力を可能とする技術です。
 3月24日に行われたITパラリンピック2013では、スイッチHALのデモが行われ、その様子をUstreamのアーカイブからみることができます。下の動画の00:40:00あたりからです。

Video streaming by Ustream
 ロボットスーツを支える技術の1つとして、脳からの発せられる信号を皮膚の表面から取り出す技術があります。取り出した信号を解析し、ロボットスーツの装着者の運動意図を推測し、それをスーツのモータのトルクに反映することで装着者の動きを支援する流れになるそうです。その脳から発せられる信号を検知する技術を入力支援技術として応用したのがスイッチHALです。上のデモでは、デモを実演する人の腕につけたセンサーで、脳からの発せられた信号自体を拾い、処理をしてPCへの入力しています。
 従来の入力支援技術は、脳からの信号によって筋肉が収縮し、その結果として生じた身体の動きを微才なレベルでも如何に検知するかに力が入れられていたそうですが、このスイッチHALはその脳からの信号の段階で検知しています。筋力がない状態でも使える可能性があるそうです。
 この技術は応用範囲がすごく広いのではないでしょうか。
 信号検知の標準化が今後の課題のようですが、2014年3月までになんとか商品化したいとのこと。期待が高まります。