みなみの備忘録

とあるライブラリアンの備忘録です。

7/27 IIIFハンズオンセミナー&第4回CODHセミナー参加メモ

気づけば前回のメモから2か月。随分空いてしまった。。。

今日はNIIで開催された2件のイベントに参加しました。

IIIF_WS - 次世代人文学開発センター 人文情報学拠点

第4回CODHセミナー デジタルアーカイブにおける画像公開の新しいトレンド~IIIFが拓く画像アクセスの標準化と高度化~ | 人文学オープンデータ共同利用センター

 

午前中はIIIFハンズオンワークショップ。人文情報学研究所の永崎先生によるIIIF基本講座。初めにUSBが配られ、今回のPPT資料のみならず、サンプルコードやビューワー(Mirador)まで大量にもらった。。。本当に無料でいいのかこのWS。

①IIIFが以下に便利か、を知ってもらい、②今後IIIFを説明する際の参考資料として、さらに③今後自分でコードを書いてみたい人のために使えるもの、とのことなので、普及活動する機会があれば使います。はい。

午後はCODHセミナー、NIIの北本先生取りまとめのもと、一人8分でLTのような発表がたくさん。IIIFの活用事例がこんなに出てくるものか、と驚いた。

さて、資料は後日ウェブで公開されるとのことなので、ここからはざっくりとまとめだけを。

IIIF (International Image Interoperability Framework) は、画像の相互運用のために提案された「規格」、やや意訳すればプロトコルのようなものの様子。IIIFに沿った形で画像を準備しておき、APIを介してIIIFに対応したビューワーで閲覧することで、異なる種類の画像、異なる場所に置かれている画像を自分のビューワー上で重ね合わせたり、ズームさせたり、画像処理を加えたり、あるいは該当箇所にアノテーション(注記)をつけて共有することができるようになる。これらの機能を使いこなして始めてIIIFの意義が出てくる、と言えそう。

こういった機能が重要視される背景に、西洋の図書事情だったり(西洋に限らず)研究の手法があるとのこと。綺麗な絵があると、図書から切り取って別途保存している例が多数あり、絵は別々の機関に保存されていることもある。また、同じ創作者の作品かどうかを同定するために、人の顔の部分だけをひたすら比較する必要があったりするため、美術系の研究者はコピーを取ってハサミで切って貼り付けて様式を研究したとか。。。

様々な機関に保存されている資料を集めるのは非常に困難なので、これをビューワー上で行えるようにするため考え出されたもの、と理解した。また、新しい技術をほぼ使っておらず、既存の技術とオープンソースの組み合わせで規格が実現できるため、ローコストであることも特徴、とのこと。

規格なので、出来るだけ多くの人がIIIFに沿って画像を公開すること、かつビューワー側も使いやすく様々な機能が提供されること、が普及のカギになると思われる。実例は沢山ありすぎて紹介しきれないが、個人的には井村さんのDrupal+IIIFの管理が面白そうに感じた。Drupalで画像のメタデータ管理(自前の検索用)、画像は別途のサーバにおいてIIIF対応させる、という手法。今度詳しく聞いてみたい。

4/20 "A Primer on the Certifications of a Trusted Digital Repository"メモ

 

先日参加した会議で、表題の記事を紹介された。

https://datascience.nih.gov/Trusted_Digital_Repository

※以前メモした記事の続きのような位置づけ。

11/24 「データリポジトリに求められる要件」記事メモ - みなみの備忘録

データの重要性が増すにつれ、インフラであるデジタルリポジトリの信頼性が問われているが、「信頼性」の基準はどう定められているか、を平易に解説したもの。評価軸は下記の4つで、

  • Organization
  • Management of intellectual entities and representations
  • Infrastructure
  • Security

この要素を含む認証基準が"Core", "Extended", "Formal"(Bronze, Silver, Goldとも)の3段階で紹介されている。先日メモしたWDS-DSAの基準は"Core"に位置づけられる模様。

# ISO基準の認証("Formal"に該当)だと$10,000も取られるらしい。。。

# これ認証欲しい場合ってどんなサービス展開になるんだろう。

また、4つ目のオプションという扱いで、アメリカ・カナダのCenter for Research Librariesが規定したTrustworthy Repositories Audit & Certification: Criteria and Checklist (TRAC)にも触れられている。

TRAC Metrics | CRL

日本でリポジトリの認証に関する議論は寡聞にしてまだ聞かないけれど、Coreレベルの実装は考えておかないと組織的なデータ保存は進まないかも、と思ったり思わなかったり。NIIの研究データ基盤構想に盛り込まれていると嬉しいけど、どうなんだろうか。

日本学術会議、第23期学術の大型研究計画に関するマスタープランを公開 電子ジャーナル・バックファイル等へのアクセス基盤整備、オープンサイエンス推進のための研究データ基盤について言及 | カレントアウェアネス・ポータル

5/18 日本学術会議フォーラム「危機に瀕する学術情報の現状とその将来」メモ

今日は日本学術会議で開催されたフォーラムへ。図書館外でジャーナルの購読料問題を真正面から扱ったものはあまり見たことがなく、斬新でした。

日本学術会議フォーラム「危機に瀕する学術情報の現状とその将来」

http://www.scj.go.jp/ja/event/pdf2/239-s-0518.pdf

フォーラムの報告は「学術の動向」9月号に掲載されるということなので、個人的に面白かった点だけ。

~~~~~

・講演:「学術誌の安定的・持続的アクセスに向けて」

NIIの安達先生。学術雑誌の高騰の話から、去年のSPARC Japanセミナーで尾城さんが喋られていたflippingの話が中心に。「ビッグディールで行き詰った現状を打開するには、ゲームチェンジしかない」と熱く語っておられた。

国際学術情報流通基盤整備事業 │ イベント情報 │ H28 │ 2016年度第1回「オープンアクセスへの道」

マクロな視点で見ると、現在の日本の購読料を全部OA料金に振り替えれば40%くらいお釣りがくる、とのことだが、当然赤字になる大学もあり各機関での調整はなかなか難しそう。分野の差も結構あるだろう、という点にも言及されていた。

また、個人的に気になったのは、Web of Scienceのデータ中心で計算しているところ。主要な出版社だけでもflippingできれば潮目が変わる、ということなんだろうが、各機関でどれだけの説得力を示せるのか、は正直分からなかった(研究評価と同じような問題?)。

 

・講演:「デジタル時代の科学出版:オープン、ネットワーク化、データ駆動」

Elsevier社のAnders Karlssonさん。講演自体は英語だったものの、日本語で挨拶されており、討論も日本語で参加されたり端々で好感が持てる。

始めの段階から驚いたのが、Elsevierはinformation "analytics" companyだった、ということ(当たり前?)。publisherがメインじゃなかったのか。。。

Elsevier | An Information Analytics Company | Empowering Knowledge

ご講演で印象に残った点としては、購読モデルとAPCモデルの差のお話。

Subscriptionは読者のためのモデル、APCは論文を発信するためのモデルなので、両者は根本的に異なる、併存させてゆっくりとscholarly communicationを変化させていくべきだ、という主張をされていた。確かに、論文を読む比率と書く比率は分野によって大分異なるはずで、論文が主要な成果物ではない研究者も沢山いる。他の登壇者も、やはりOAより研究の質の話を中心にされていた、ということも鑑みれば、完全なflippingはまだ先の話かも。。。

もう一つは、(Elsevierが描く)オープンサイエンスの図。研究のライフサイクルのフェーズごとに出版がなされる、ということで、既存のジャーナル、データジャーナルのほか、「材料と方法のジャーナル」、「ソフトウェアジャーナル」なるものが書かれていた。斬新。

実例はあるのか、と思って探してみたところ、何かそれっぽいものがあったので備忘的に。(注:見出しだけで中は見てないので信用しないでください)

www.journals.elsevier.com

www.journals.elsevier.com

その他、出版社版に50日間無料でリンクできる仕組み(Share link)とか、いろいろな工夫が窺えた。うーん、非常に優秀ですな。。。

3/23 音声レコーディングメモ

3月下旬、音声レコーディングに立ち会う機会がありました。

原稿を作成してプロの方に読んでもらうのだが、これがなかなか難しい。

次回(があるのか分からないが)のために備忘メモ。

・読み原稿はできるだけ短文にすること。一文が長いと(聞く側の都合だけではなく、読む側にとっても)分かりにくい。

・スライド付きの場合でも、喋りで補うのは最小限に。基本はスライドの記述をほぼそのまま読み上げてもらうくらいに作りこんでおく。聞き手のスタンスとして、今どこについて喋っているのか混乱する。

・表は細かく説明しない。後で見るときのポイントだけでよい。

・図は見方の流れを説明するように。ポンチ絵は出来るだけ避けよう。

・強調すべきポイント、特徴的な発音については、事前に読み原稿へ書いておくこと。自然な文章になるように練ってきてもらえる。

2/28 第4回オープンサイエンスデータ推進ワークショップ参加メモ(後編)


後編です。前編はこちら:http://minamin.hatenablog.jp/entry/2017/03/06/175853
4人目は京大の天野さんから、機関リポジトリ推進委員会で開発中のRDM(研究データ管理)トレーニングツール紹介。既に、

AXIES2016(https://axies.jp/ja/conf/conf2016/8r18v2/general-session

第3回SPARC Japanセミナー2016(http://www.nii.ac.jp/sparc/event/2016/pdf/20170214_8.pdf

で一部紹介されているが、アップデートも兼ねてとのこと。
RDMの中核要素を①RDMインフラ、②ヒューマンリソース、③組織体制、④コミュニティ、とした上で、研究支援職という立場から日本語で教材の提供を行いたい、というお話。MOOCで提供予定。
本ブログの中の人も開発に参加しているためコメントしづらいが、国内でのRDMの基礎(たたき台)となる資料はやっぱり必要で、こういった取り組みを元により多くの人が活動に参加してくれれば嬉しいところ。


5人目、こちらも京大の能勢先生からRDMの実践例。
データ取得と解析の具体的な事例紹介は非常に面白かった。1データセットにdoiを付与するまでにどれだけの手間がかかり、維持管理の心配もしなければならない、というくだりは実感が湧いた。
RDMは、一般の研究者にとっては無用な手間が増えるだけ」と思ってしまうのはもっともなので、研究者のみなさんがそう思ってしまう前に何とかしなければならないところ。
能勢先生からはデータ公開やRDMに対する評価体制の構築、利用が容易なシステム構築や図書館との連携などが対策案として挙げられていたが、意外にも(?)フロアの反応は違った角度からきていた。曰く、「初めからそういうものと思って学生に教育を進めるべきでは?」というもの。規範、慣習になる方向性。
確かに、まず取っつきやすいのはこれから研究者になる人だろうし、そこから潮目が変わることも十分に考えられる(そこまで社会的に待ってもらえるか、は別問題として)。
具体的な働きかけを考える際には意識しておきたい。


6人目、NIIの込山先生。NIIの研究データ管理基盤紹介。
研究公正とオープンサイエンスの両立、という問題意識から、既存の図書館員ではカバーできないと思われる、研究プロジェクトを対象としてフォローしたいとのこと。助成機関とも連携して進めており、まずlong tailデータを対象としつつ、Open Science FrameworkをNIIドメインにして開発中。
https://osf.io/
開発元のCenter of Open Scienceとも協働関係をきちんと築いており、NIIで開発したプラグインを提供している、のくだりは(継続性の観点で)結構重要に感じた。
現在は6機関(北大、名大、京大、九大、阪大、NII)で使い勝手のトライアル実施中とのことで、早い実装に大変期待。
なお本家との違いとして、公開基盤としては既にJAIRO Cloudがあるため、公開機能は削っているそう。あくまで非公開部分のデータを管理する基盤、という位置づけになるようだが、どっちがいいんだろうか??


7人目は極地研の門倉先生、極域環境データサイエンスセンターの紹介。
来年度から情報・システム研究機構内で立ち上がるデータサイエンス共同利用基盤施設のうち、極域環境データサイエンスセンターの紹介。ちなみにセンターは現在6つある様子。
https://ds.rois.ac.jp/
極地研の中のデータベースは沢山あるが、各々の分野限定であることや公開の進み方にばらつきがあり、マンパワー、ハードウェア、ソフトウェアのリソースも様々である、という問題意識から、総合的な検索・可視化・解析システムの設計・構築がしたい、という目標のお話だった。最近のトピックであるデータジャーナルの紹介はさらっと流していたが、質問はそこに向かってしまう。。。
https://pdr.repo.nii.ac.jp/
内容は予算の取り方的なお話だったので割愛するが、関心度の高さがうかがえた。


8人目はBernd Ritschelさん、超高層科学分野でのLOD vocabularyについて。
SPASEのメタデータスキーマをSKOS形式に変換するために、vocabularyの整備を行っているとのこと。
http://www.spase-group.org/
※去年、なぜかJAIRO Cloudにこのスキーマ名が搭載されていて驚いた。実装された訳ではなかったみたいだけども。。。
IUGONET、ESPAS、GFZ ISDCといった関連分野のスキーマを統合したいとのことだが、わざわざLODを使う理由が良く分からなかった(ので質問してみたけれど、やっぱり良く分からなかった)。
新しい技術を試すのは有意義だと思うけれども、これだけ分野が近いんだから直接マッピングしたほうが早いし定義のずれも最小限で済むのでは、というのが正直な感想。


9人目はJSTの小賀坂さん、JSTにおけるオープンサイエンス対応。講演部分はこれで最後。
2/14のSPARC Japanセミナーと同じ内容、という前置きで話されたが、
http://www.nii.ac.jp/sparc/event/2016/20170214.html
最後のほうにJST未来社会創造事業の紹介が増えていた。公募テーマ、領域を研究者と一緒に作っていく新たな取組みとのこと。
前回も気になったPID switchboard Japan(次期JaLCシステム構想)がどういう構想のものなのか、についてはやっぱり分からず。
THORとはどう違うんだろう。


最後にNISTEPの林さん、まとめコメント。毎回その場で一日の全体像を振り返りつつメッセージにまとめる、という達人芸を披露されているが、今回はさらに全て英語で行うという離れ業。
Data sharingの文化を醸成していくことによってData drivenな研究を進めたい、では現在とのギャップをどう埋めるのか、という視点で話をされていた(と理解した)。
印象に残ったのは、「あったらいいね(may-have services)」ではなく「なくてはならない(must-have services)」を作ることが重要、というメッセージ。今回の講演からは、collaborate and co-designがキーワードの一つと言えそう、とのことだった(ここは少々聞き取りが怪しいかも)。
図書館絡みでも既に事例はいくつか出てきてはいるので、来年度の展開に期待したい。

2/28 第4回オープンサイエンスデータ推進ワークショップ参加メモ(前編)

2/28に京大で開催された、第4回オープンサイエンスデータ推進ワークショップに参加しました。
2/28~3/1の日程だったけれども、業務の都合上2/28の一日だけ参加。とはいえ不慮の事態により結局1泊(?)することに。。。
まあそれはともかく、このワークショップも4回目。いつの間にかまとめページができていた。
http://wdc2.kugi.kyoto-u.ac.jp/openscws/
今回はデータマネジメントをテーマに、パデュー大学からMichael Wittさん、シカゴ大学からVas Vasiliadisさんがはるばる京都まで来ていらっしゃった。
~~~~~
1日目の講演だけだが、簡単な感想を。
村山先生、オープンサイエンス・研究データ共有の国際的な動向について。
内容としては標題の通り、オープンサイエンスの国際動向、特にヨーロッパを中心とした展開のお話だった。
印象に残ったのはEUDAT introduction to metadataのお話。
https://www.slideshare.net/EUDAT/introduction-to-metadata-57336324
EUDATを進めていくに当たって作成した文書の中に、メタデータの書き方、ガイドラインといったものがあるそうな。図書館的に言えば、research data用のコーディングマニュアルみたいなものの様子。

# slideshareの関連ページを見る限り、user trainingやresearch data managementとかもあってかなり充実している模様。

こういった文書類はあまり日本では見受けられないが、本格的に進めていくに当たっては必要になってくるだろう、という、随分と実装レベルに沿ったご提案が新鮮だった。

 

2人目は京大の梶田先生。京大におけるアカデミックデータマネジメント環境構築構想について、というお題で、

「2030年には京大のインフラがどうなっているか?」という問いかけからスタートした。
このくらいのレベルは実現可能で、実現しないと優秀な人材は集まってくれないよね、じゃあ既存のリソースでどう進めていくか、という非常に現実的な見通しを示された上で、人的リソースと技術インフラの統合、研究支援、研究公開、アーカイブといった各レイヤーでの連携の在り方の考察が展開されていた。
実際に動くのは来年度から、という話だったけれども、本気度が伝わる講演だった。注目しておきたい。


3人目はパデュー大学のMichael Wittさん。1年ぶりに再会。
"Research Data Management funder policies in the United States"として、アメリカの助成機関のポリシーの詳細な紹介、パデュー大学での対応などをご講演されていた。
特に強調していたのはOSTP指令の話。

# OSTP : objectives for dataとして10項目挙げられている、と手元のメモにあるものの、今調べたら全然
# 出てこない。。メモのミスか政権の問題か??
# とりあえず下記が出てきたのでこちらにメモ:
# https://www.icpsr.umich.edu/icpsrweb/content/datamanagement/ostp.html

OSTPの説明からの流れで、各機関のData Management Plansに落とし込むまでに
Open government
 → Public access plan
 → Implementation: publications / data
 → Open Access Policy / Data Management Plan

といった要請をきちんと踏まえていく「構造」を明示していたのが印象的だった(スライドでは樹形図)。
それと、"Motivations for PURR"として、libraryの専門性に触れていた。Wittさん曰く、libraryは長期的なstewardshipのため、学術記録としてのデータアクセス保証が、その専門性にかかる問題とのこと。そのためのガバナンスとスタッフとして、IT部門2名、ライブラリー2名、研究支援職2名、ドメイン研究者3名がlibraryに配置されている。役割は、project director、technologists、HUBZero Liaison、metadata specialist、 digital archivist、 repository outreach specialist、 data curator。Key playerは分野特化のライブラリアンとデータサービスのスペシャリスト。体制を組むのに大体10年くらいかかったとか。
質疑では、「日本のライブラリアンは文化的に機関を推進する立場にないが、library professionはどこに持ってくるべきと考えるか?」といった質問が出ていた。
Wittさんからの回答は、ライブラリーの理念の中心となるのは"openness"、誰にでも開かれた存在であるべきという位置づけから、協調、社会への繋ぎ、メタデータなどがprofessionだろう、とのこと。要はハブのような存在、ということだろう。
#####
以下、Wittさんのご講演についての個人的な感想を。
質疑でもそうだったが、"librarian"の定義がどうもずれている気がしている。
日本だとlibrarian = 大学図書館員なのだが(※1)、海外、少なくともアメリカはlibrarian = libraryに関わる専門職、ということで、研究支援職のみならずIT部門やドメイン研究者ですらも"librarian"になっている。
libraryが物理的な館に紐づいていない、と言い方をしても良いかもしれないが、同じ定義で話すなら、日本でも図書館長をはじめとして専門的なlibrarianはいるだろう。
日本でこの話をすると「海外と比べて」みたいな論調が目立つが、その辺の見せ方も、大学図書館員がハブになって繋いでいけば変わってくるのかも、と思ったり思わなかったり。

(一日にも関わらず)長くなったので2つに分けます。
後編はそのうちに。

 

※1 2017/3/7追記:ご指摘をいただいてはたと気づきましたが、「librarian = 大学図書館員」の文脈について、公共図書館員、専門図書館員を無視した訳ではございません(この話題の文脈で、という意味です)。どなたか不快にさせていたらすみません。。。

2017/2/22 Almaワークショップ参加メモ

久々の更新。実に3か月ぶり。

2月に次世代図書館システム"Alma"についてのワークショップが開催されたので参加してきました。
参加は招待制とのことで、21日は主に360Linkユーザー向け、22日はSFXユーザー向けだったとのこと。自分は22日に参加しました。
ユーザー側の参加者は6名、Ex Libris側は6名とかなり密な感じ。

~~~~

始めに、ユーザー側から利用しているシステム、主要なワークフローの説明、新しいシステムに期待する機能とかを簡単にプレゼン。

# 「プレゼンは日本語でも英語でもOK」とのことだったので日本語で準備して

# いったものの、聴衆が全員外国人(日本語が分からない)という事態。。。

# 適宜フォローしてもらいながら喋りつつも、これは想定しておくべきだったと反省。

大体1時間くらい皆さんで喋ったあと、本格的にAlmaの紹介。

Almaの紹介は実は2度目(9月に職場でやってもらった)なので、今回はかなり細かいところまで余裕を持って確認できた。やっぱり高性能。

サイロをなくす、ということが非常に強調されるだけあり、資産管理システムや発注システムとのAPIによる連携機能が素晴らしい。日本のワークフロー上、大学図書館がデフォルトでは権限(財務会計システムへのアクセスとか)を持っていないところをどうフォローするか、が何とかなれば、業務量自体は劇的に減りそう。

ジャーナルごとのcost per useも簡単に見られるようになっており、data drivenな要素が面白い。また、前回の時点ではE-Alma(電子リソース管理のみを取り扱う)の扱いは不明だったものの、日本向けということで本格的に検討するらしい。

~~~~

質疑応答の中で一番気になった点としては、pay-per-viewの取扱いと外部リポジトリ連携。
pay-per-viewについてはユーザーごとに残件数を把握することは可能であるものの、どれをpay-per-viewで購入するのか、という管理までは難しいとのこと。まあそうだろう。

ただ、コスト計算の結果、年ごとにジャーナル単位で買ったり論文単位にしたり、という運用が想定されるので、pay-per-viewを自動的に管理するような仕組みは将来的に欲しい。Elsevierのように、年ごとにまとめ買いできるところは情報を提供してもらいたいところ。
外部リポジトリ連携は、Almaは内部でトータルな環境を整備する方向性なので、外部リポジトリ連携機能は実装していないとのこと。ここは大規模大学はともかく、中小規模の大学ではかなりのネックだろう。
(逆に既存のリポジトリ(JAIRO Cloud?)をすっぱり諦めるという選択肢もなくはないが。。。)