「Web情報を保存するとは何か」の続き-Web情報の保存についての個人的で簡潔な妄想-

 以前、以下のようなエントリを書きました。

 要点をまとめると
 Webにおけるユーザーの行動の結果として、Webを構成するリソース、またはその断片的な一部は、ユーザーにより断片化され、大量に複製される形で残っていくのではないか。
ということでした。言い換えると、画像の転載やテキストの一部のコピペなどより(しかも、それが転載と複製を繰り返されることで)、一部とはいえ、Web上にあった情報は残っていくものもあるんじゃないかということでした(複製にまさる保存手段なしということで)。オリジナルが失われても、転載されたものが一部残っていたおかげで辛うじて当時のオリジナルの情報を部分的にでも再現できるなんてあたりは、紙の史資料と同じですね。
 そして、結果としてそういう形でしか残らなかった情報を将来の人間は活用するしかない場面が出てくるのはないか。ならば、自然に情報が残っていくにまかせるのではなく、少しでもよい方向にもっていくことはできないだろうかと、一応業界人なので考えたりします。
  
 いろいろとあるのでしょうね。少しでも残りやすくするとか、なるべく理想に近い残り方をするようにするとか。
  
 Internet Archiveなどが取り組んでいるようなウェブアーカイビングプロジェクト(参照:Wikipedia)で保存されているような理想的な形ではないとしても、結果として断片的な形で情報が残ることも折り込んで、どうすれば少しでも真正性を担保できるのか、将来の歴史家の負担を軽減できるのかということは図書館がいつか考えなければならないのでないかという気がしてきました。
 具体的に何をすればよいのでしょう。
 すぐに思いつくのが、将来にわたって真正性を担保できるようなメタ情報を少しでもリソースに残すことに貢献することでしょうか。
 リソースにメタデータが新規に付与され、それにメタ情報が追加・修正されるタイミングはざっと以下の2つあるかと思いますが、

  1. リソースが作成されたタイミングで埋め込まれるメタデータ(例としは、Exifなど)
  2. リソースが転載されたタイミングで新たなメタデータが埋め込まれる。

 1は例にもあげたようなExifなど、すでに結構あるかと思います。必要ならその仕様の改訂に意見して必要なメタ情報が残るようにする、ないフォーマットにはメターデータが付与されるように意見を出すとか。
 2はどれくらいあるのでしょうか。そもそもどうすればできるのかも分かりませんが、OSに依存することが結構多そうですね。しかし、どのような経路をたどって、そのリソースがその時代に残ったのかという情報が記録される仕組みが1ファイルレベルで欲しいところです。コピペされたテキストは1ファイルどころではないですが、今の時代に残ったテキストがどういう経路でコピペされ、どのように改変されていったかその差分情報がWikiのように残れば理想的です。そういう仕組みってどうすればできるんでしょうか。
 ところで、今回、真正性、真正性という言葉を多用してしまいましたが、この使い方でよいのかしら・・