今年もAdvent CalendarにWeb Accessibilityのテーマで参加します

 今年も(といっても2回目ですが)、ブロガーのクリスマスイベントのAdvent Calendarに参加します。
 ちなみにWebにおけるAdvent Calendarとはあるテーマで12月1日から25日まで1日に1つ、みんなで記事を投稿していくというイベントです。
 2年前にはHTML5をテーマとしたAdvent Calendarに参加しましたが、今年はWeb AccessibilityをテーマとしたAdvent Calendarの12/23に投稿予定です(ネタは未定)。

 今年もいろいろなテーマでAdvent Calendarが行われています。

 素晴らしい完全体の食べ物である寿司のAdvent Calendarにも参加したかったのですが、残念ながらすでに満席でした。素晴らしい完全体の食べ物である寿司の完成形である鉄火巻に対するLoveについて年末にえんえんと文章に目立つ形で書いてみたかった。
 ブログを立てている皆様もどれかに参加してみてはいかがでしょうか。

関連エントリ

TED「セルゲイ・ブリン: なぜグーグル・グラスなのか?」

今回は、Google Glassの話です。すでに知られすぎているので、今更さらな話ですが、Googleのセルゲイ・ブリンのTEDにおけるGoogle Glassの講演を観て、改めてすごいと思ったのでちょっと紹介。
 
  Google Glassを紹介した動画は以下で、

 Google Glassを語るセルゲイ・ブリンのTEDにおける講演は以下です。

 頭でこういうものだろうと想像できても、映像でみると受ける印象がかなり違いますね。ウェアラブルコンピューティングが少し前からいろいろと話題になっていますが、Google Glassはウェアラブルコンピューティングをわかりやすい形で実現するかもしれません。iPhone以来の新しいカテゴリのデバイスになるのではないかと思ったりも。
 
 Google Glassが私の興味をひいたのは、検索行動そのものが1つ上の段階に進むのではないかと思わせたことです(えっ、今更言うか・・・。
 Googleの検索技術がどんなに進化しても、Googleの基本的はサービスは検索窓からキーワードを放り込んで検索させるテキスト検索です。人が脳内にある探したいものをキーワードに変換してアウトプットせねばならない点では、検索そのものはそれほど進化はしていないともいえます。頭の中にぼんやりとある調べたいこと、探したいことを、キーワードという抽象的なものにものに変換するフローですでにいろいろな情報が削られてしまっている。適切なキーワードに変換できないこともある。間にキーワードに変換するというフローがあるために必要な情報に正確にたどり着けなかったりするであろうと。
 理想は頭の中にぼんやりとある調べたいこと、探したいことを直接そのまま検索エンジンに理解させて探させることです。スマートフォンなどが搭載する各種センサーはそれを実現させる筆頭であろうと思っていましたが、Google Glassも視覚情報をベースに検索という行為を少しそっちよりにもっていくかもしれない。

EPUBにOpen Annotationを組み込むための検討が始まったようです

 11月7日の村田真さんのツィートによるとEPUBにOpen Annotationを組み込むための検討がはじまったようです。EPUB3.01に係る議論※1の中での話でしょうか?


議論の詳細は不明ですが、アノテーション機能が仕様で規定されているPDFのように、どのビュワーでもアノテーションが付与できて、どのビュワーでもそのアノテーションを閲覧・編集することができるようになるのでしょうか。
Readiumの開発の議論を追っていると、Open Annotation Data Modelを利用したアノテーション機能の実装も提案されているようですし、EPUBにおけるアノテーションの標準化がここ数年で一気にすすむかもしれませんね。

※1 EPUB 3.01に関する情報はepub-revisionの以下のページに集約されているようですが、残念ながらドキュメントは非公開で詳細を知ることが現時点ではできません。

 Matt Garrish氏が以下のブログである程度まとまった情報を発信されているようです。

 

Open Annotationに関するエントリ