IDPFがEPUBのアクセシビリティの要件をまとめた仕様とその実装方法集のドラフトを公開

IDPFがEPUBのアクセシビリティの要件をまとめた仕様のエディターズドラフトとその実装方法を解説したTechniquesのエディターズドラフトを2016年4月に公開しています。そして、この7月にはその第2版が公開されています。

 文書のタイトルに”Discovery”という文言があるように、アクセシブルなコンテンツを発見するためのメタデータの要件にも力点が置かれています。
 この両文書はW3Cの”Web Content Accessibility Guidelines (WCAG) 2.0″とその関連文書である”Techniques for WCAG 2.0″の関係に相当するものを想定しているのでしょうね。

 IDPFはEPUB3のアクセシビティガイドラインを以下のように数年前から公開しています。

 これとの関係はよく分かりませんが、W3Cドキュメントの体裁に則った2016年に公開された仕様書に移行されることになるのでしょうか。たぶん。
 実際、要件とその実装方法を切り離した上のドキュメントのほうが全体的にすっきりしている気がする。

TEDでのジェレミー・ハワード氏によるディープラーニングについてのスピーチ

2014年にTEDでジェレミー・ハワード氏がディープラーニングの可能性について話をしたものです。ディープラーニングについては、実は最近、気になり始めたばかりであまり詳しくはないのですが、これがそのすごさをわかりやすく伝えているなぁと思ったのでメモ。このトークから約2年が経ち、今はどうなっているのだろうか。

スピーチを文字に起こしたものも公開されています。
ジェレミー・ハワード: 自ら学習するコンピュータの素晴らしくも物恐ろしい可能性 | TED Talk Subtitles and Transcript | TED.com

コンピューターには「見る」だけでなく 「読む」こともでき 「聞く」ことによって理解できることも お見せしました そうすると「書く」ことだってできると言っても 驚かないかもしれません これは私が昨日 ディープ・ラーニング・ アルゴリズムで生成したテキストです こちらはスタンフォード大のアルゴリズムで 生成されたテキストです それぞれの画像を 説明する文が ディープ・ラーニング・アルゴリズムによって 生成されています アルゴリズムは「ギターを弾いている黒いシャツの男」を 前に見たことはありません 「男」を見たことはあり 「黒い」ものを見たことはあり 「ギター」を見たことはありますが このキャプションは画像に対して 新しく独自に作り出されたものです 書くことに関してはコンピューターは まだ人間に及びませんが 近づいています テストでは4回に1回は コンピューターの生成した文の方が好ましい — という結果になっています このシステムはできて まだ2週間しかたっていないので このまま行くと たぶん来年中には コンピューターアルゴリズムの成績が 人間を上回るのではと思います だからコンピューターは 書くこともできるのです

すごいですね。最近だと、facebookが代替テキストを自動生成する機能を実装することを発表しましたが、これの技術の応用でしょうか。
Facebook、AIを利用し画像の説明を生成–視覚障害者向けに自動代替テキスト機能を発表 – CNET Japan
 この話は、Googleがコンピューターに猫を認識させることに成功したという話ですが、コンピュータが個々を判別するのではなく、種類というものを概念として理解できるようになったということらしい。これなどは、文字認識のことを考えると、OCRの認識率の向上に劇的な効果がありそうな気がする。

この1年前にディープ・ラーニングが 「見る」こともできると知りました ドイツ道路標識認識ベンチマーク という奇妙な競技会で このような道路標識をディープ・ラーニングで 識別できることが示されました 他のアルゴリズムよりも 上手く識別できた というだけでなく このスコアボードにある通り 2位の人間より 2倍高い精度で 識別できたんです 2011年には コンピューターが人よりも 良く見ることができる事例が 生まれたわけです それ以来いろんなことが 起きています 2012年にGoogleが発表したんですが ディープ・ラーニング・アルゴリズムが YouTubeビデオを見て 1万6千台のコンピュータで 1ヶ月 データ処理した結果 コンピューターが「人」や 「猫」といった概念を 自分で学んだということです これは人が学習する方法に 近いものです 人は見たものを 教えられて学ぶよりは むしろそれが何なのか 自分で学んでいくものです 2012年にはまた 先ほど名前の出たジェフリー・ヒントンが 有名なImageNet競技会で 優勝しましたが これは150万の画像を 何の写真か 判別するというものです 2014年の時点で 画像認識の誤り率は 6%までになっています これも人間より高い精度です

ディープラーニングがアクセシビリティの領域に限定しても、大きな影響を与えることになるのではなりそう。人間が読むように書籍からスキャニングした画像データをOCRに書けなくても、コンピューターが画像の説明を含めてそのまま読んでくれるようになったりするのではないか。

知的障害により文字を読んだり、読んだ内容を理解することに難しさをもつ人のための「わかりやすい情報提供のガイドライン」(全国手をつなぐ育成会連合会)

 全国手をつなぐ育成会連合会が立ち上げた「知的障害のある人の合理的配慮」検討協議会が「わかりやすい情報 提供のガイドライン」を2015年1月に公開しています。知的障害により文字を読んだり、読んだ内容を理解することに難しさをもつ人たちが、一般の人たちと同じように、さまざまな情報を得て、自分の生活を豊かに生きることを支援することを目的としたものです。

 
 日本語に不慣れな外国人や高齢者、子ども等への情報提供にも応用できます。具体例を含む詳細はガイドラインそのものをご覧いただきたいのですが、ガイドラインに掲げているものはどれも重要ですので、ガイドラインに上げられている要件を転載します。ガイドラインに掲載されている具体例は以下の2つが引用文献になっているため、図書館に関係するものになっています。

1.テキスト(文章)について

【具体的に書く】

  • 難しいことばは使わない。常とう語(ある場面にいつもきまって使われることば)を除いて、漢字が4つ以上連なることばや抽象的な概念のことばは避ける。
  • 具体的な情報を入れる。
  • 新しい情報を伝えるときには、背景や前提について説明する。
  • 必要のない情報や表現はできるだけ削除する。
  • 一般的にはあたりまえのことと思われても、当事者にとって重要で必要だと考えられる情報は入れる。

【複雑な表現を避ける】

  • 比喩や暗喩、擬人法は使わない。
  • 二重否定は使わない。
  • それぞれの文章に重複した「のりしろ」を付ける(指示語を多用せず、あえて二度書く)。
  • 名称等の表記は統一する。

【文章の構成をはっきりさせる】

  • 手順のある内容は、番号をつけて箇条書きで記述する。
  • 大事な情報は、はじめにはっきりと書く。
  • 一文は一つの内容にする。内容が二つある場合は、三つの文章に分ける。
  • 話の展開は、時系列に沿う。
  • 接続詞はできるだけ使わない。

【表記】

  • 横書きを基本とする
  • 一文は 30 字以内を目安にする。
  • 常とう語は、そのまま用いる。
  • 常とう語を除く単語には、小学校2~3年生までの漢字を使い、漢字にはルビをふる。
  • アルファベット・カタカナにはルビをふる。
  • なじみのない外来語はさける。
  • 漢数字は用いない。また時刻は 24 時間表記ではなく、午前、午後で表記する。
  • はっきりとした見やすい字体(ゴシック体)を使う。

2.レイアウトについて

  • 文字は、12ポイント以上のサイズを使う(ルビは該当文字の上部に半分程度のポイントで記述する)。ただし、サイズにこだわるあまり見やすさを失わせない。
  • テキストを補助するために、内容を表す絵記号(ピクトグラム)を使う。
  • テキストを補助するために、内容を表す写真や絵を使う。
  • 本や冊子は、できるだけ見開き2ページで1つの事柄が完結するように書く。
  • 意味のある単位でわかちがきにする。
  • 行間をあける。・一つの文がまとまって見られるように改行する。
  • 必要に応じて、枠外等に用語や概念の補足説明を加える。
  • もっとも伝達したいことやキーワードは、色分けや太字、囲みなどで強調する。
  • 主語は省かない。

3.伝達手段

  • 紙ベースの著作物は音声でも聞けるように、パソコンや電子図書やマルチメディアデイジー※2等で利用できるようデジタルデータに変換して、聴覚的な情報を併用することが望ましい。
  • 紙ベースの著作物は、口頭で補足説明することが望ましい。

4.注意事項

  • 読む能力、聞く能力には個人差があるので、個人の障害特性に配慮する。
  • 対象者の年齢を尊重し、年齢に相応しいことばを使う(子ども向けの表現は避ける)。