- français
- English
Compte-rendu: Fiesole Collection Development Retreat 2011 - St. Petersburg
Site web et programme détaillé
TG a assisté à cette conférence.
Préconférence sur le copyright
Kim Zwollo - Collective Licensing (pub)
Travaille pour le Copyright Clearance Center (CCC), fondé à l'initiative du Congrès américain 2 ans après la loi sur le copyright. Au début, devait servir à récolter les taxes sur photocopies et pour gérer la transmission des droits de copie; système de participation non-obligatoire (opt-in licensing).
RightsDirect > succursale européenne de CCC, basée à Amsterdam.
Leur produit actuel = "collective licensing": un peu l'équivalent de la "SUISA" pour plusieurs sortes d'auteurs: ils gèrent les droits pour tout un collectif d'auteurs, récoltent et redistribuent les royalties. Offrent également des services aux entreprises pour gérer légalement et plus facilement les questions de copyright au sein de celles-ci, notamment les multinationales. Leur outil RightsSphere offre ainsi une base de données de contenu, indiquant comment une entreprise y a accès et quels droits elle possède sur ce contenu. Un bookmarklet est installé sur le navigateur des clients, il sert à interroger la base de données pour savoir quels sont les droits sur le contenu actuellement consulté. Par exemple pour un article de Nature, l'employé peut l'envoyer par email à un collègue au sein de la même institution, mais doit payer pour l'envoyer hors de son entreprise. CCC s'occupe de gérer le paiement. Ca marche évidemment mieux si le client a acheté le contenu via CCC, mais ils peuvent aussi ajouter l'information dans leur db. Forment également les employés et aident les entreprises à établir leur copyright policy.
Ils offrent également un outil (RightsLink) à l'intention des éditeurs pour les aider à savoir sous quelles conditions ils peuvent ré-utiliser du contenu et gérer le transfert de permissions d'un auteur à l'autre.
Références intéressantes:
- Copyright in the digital age, conférence de F. Gurry
Elena Bun - Copyright in Russia
La Russie n'a un régime de copyright que depuis peu de temps, avant 1992 le concept même de propriété intellectuelle n'existait pas (pas plus du reste que le concept de propriété tout court pendant l'époque soviétique…). Depuis, ils ont mis en place une législation pour satisfaire avant tout les majors de la distribution multimédia, ces lois ne tiennent pas compte des besoins des bibliothèques… Très restrictives, elles interdisent par exemple à une bibliothèque de créer de copies digitales à des fins de préservation.
Ainsi, certains projets de numérisation sont compromis.
Un projet a été donc lancé par la bibliothèque nationale pour aider les bibliothèques à gérer ce genre de problèmes, y-compris une aide financière pour payer les droits, car pas prévu dans leur budget.
Doivent négocier avec les auteurs pour les droits. Ont voulu proposer que tout ce qui a été publié durant la période communiste (<1985) soit dans le domaine public, mais ça a été refusé. Retrouver les propriétaires de ce qui a été publié durant cette période est complexe, de nombreux auteurs ayant disparu...
Références intéressantes:
- Immortality and the Law by Ray D. Madoff, 2010: Yale University Press... "the raising power of the American dead"
Ben White - Evolution du Copyright (+)
Les bibliothèques dépensent 26 milliards d'€ par an pour du contenu, ce sont les clients principaux des éditeurs et elles devraient donc avoir leur mot à dire dans la discussion sur le copyright! Les biblios supportent ainsi la créativité.
Bref retour historique. Naissance du copyright: Statute of Anne (18e s), puis US Constitution, dans les deux cas pour promouvoir l'éducation et la science. Malheureusement, le copyright est devenu un outil pour maximiser les profits des propriétaires des droits, surtout les majors.
En UE, certains parlent d'ajouter la liberté de circulation de l'information comm une "cinquième liberté (fifth freedom)" aux "quatre libertés" du marché commun européen (biens, services, capitaux et personnes).
Le copyright doit établir un équilibre entre assurer la rétribution financière de l'innovation (royalties) tout en garantissant le partage de la connaissance. Ainsi, l'UE prévoit des exceptions au copyright pour autoriser la citation, la copie de préservation, le transfert d'un contenu dans un format pour personnes malvoyantes, etc. Elle autorise également désormais expressément le cache d'un navigateur internet (= une copie…), avant cette exception tout ordinateur était en théorie illégal!
Chaque pays gère le copyright selon sa sensibilité, il n'y a pas de loi globale. Cela pose inévitablement la question de la juridiction: lorsqu'une information traverse les frontières, selon les règles de quel pays doit-on résoudre les problèmes de copyright?
Autre problème: les contrats de licence que les utilisateurs (et bibliothèques) signent avec des éditeurs ne respectent pas strictement le copyright. Exemple: la vente d'e-books. En-effet, un e-book ne peut être utilisé que par l'acquéreur original, qui ne peut pas le revendre ni le prêter ou le transférer à quelqu'un d'autre, cela ne respecte donc pas la "first sale doctrine" garantie par le copyright. La plupart des contrats de licence signés par les bibliothèques ne permet pas l'archivage, le prêt-inter, le transfert dans un format lisible par les aveugles, etc.
En cas de litige dans ce type de cas, c'est le droit des contrats qui fait foi, et non le copyright.
Le problème devient de plus en plus grave au fur et à mesure que la législation évolue! En-effet, la "three strikes legislation" (ex hadopi en France) ne prévoit pas les usages des bibliothèques ou de l'éducation en général, notamment car à la différence des majors, ces lobbys sont très mal représentés au niveau politique…
Ainsi la EU Information Society Directive ne prévoit qu'une liste finie d'exceptions au copyright et une seule est obligatoire pour tous les membres: le cache. Cf WIPO study of copyright limitations and exceptions for libraries, chaque état a ses propres exceptions…
Au niveau global, c'est très problématique. L'IFLA a remarqué dans une récente étude que 21 pays au monde ne prévoyaient pas d'exceptions au copyright pour les bibliothèques (notamment Brésil, Argentine). 27 autres pays ont bien des general library exceptions mais elles ne permettent pas aux usagers d'en faire usage. Pour résoudre ça, WIPO propose traité pour exceptions (visually impaired, libraries).
De plus, la loi protège très fermement les dispositifs anti-copie (Technical Protection Measures).
Ainsi en UE, il est simplement illégal de contourner ces dispositifs. Si un organisme souhaite le faire pour une bonne raison (exemple d'une bibliothèque anglaise qui disposait d'un fonds de photos digitales dans un format obsolète et qui souhaitait migrer le format), elle doit passer par une procédure complexe (en l'occurence pour l'Angleterre passer par le Secretary of State). En revanche, la loi en Suisse et en Australie ne considère le contournement comme illégal que s'il a pour but un autre acte illégal (notamment, la distribution du contenu à large échelle, piratage) mais toléré dans le cadre des exceptions au copyright.
En résumé: le copyright est en retard sur la technologie, la loi des contrats de vente est plus restrictive et prend le dessus en cas de litige, la 3 strikes legislation représente un contrôle étroit des utilisateurs, coûte cher et rend les bibliothèques potentiellement illégales. Tout ceci est contradictoire avec le but premier du copyright qui était de promouvoir l'éducation...
Maura Marx - Digital Public Library of America
Ce projet est en fait une sorte de communauté d'intérêt qui essaie de réfléchir à des solutions techniques et légales aux problèmes de copyright auxquels sont confrontées les bibliothèques pour les documents électroniques. La référence à la "public library" veut dire que ce projet vise à un accès gratuit, pour tous, se concentrer sur l'accès (et non la préservation), inclut tous les formats et respecte le droit du copyright. Seulement, la loi actuelle n'aide pas et ne fait que d'ajouter des obstacles plutôt que d'encourager la créativité (cf présentation précédente, et paulcourant.net).
DPLA va essayer de faire des white papers pour faire évoluer les usages pour aller dans le sens des buts ci-dessus. Exemple:
"Digital Lending program" essaie de respecter la loi actuelle du copyright en approximant la first sale doctrine pour les documents numériques: 1 seul "prêt" à la fois, usage de DRM pour prévenir la copie, etc.
Tout ceci semble malheureusement à côté de la plaque… on veut appliquer les modèles de livres papier aux documents numériques en oubliant les différences fondamentales, les avantages intrinsèques de l'électronique, etc. cf par exemple ce billet de Seth Godin.
Keynote
YS Chi - Elsevier (gros coup de pub pas subtil)
Les éditeurs et les bibliothécaires sont comme les "allumeurs de lampadaires" (lamplighters), ils rendent un service que personne ne remarque mais qui est indispensable au bon fonctionnement de la recherche. Il ne sont pas les acteurs principaux de la recherche, mais en sont les facilitateurs.
Rôles des éditeurs:
- enregistrer l'innovation (qui a présenté quoi en premier, etc.)
- organiser la validation de la recherche (peer review)
- disséminer la connaissance ("publisher" vient de "publicare", répendre)
- archiver et préserver la connaissance
Ce modèle est en train de changer. Les facteurs principaux de ce changement sont
- augmentation massive des publications scientifiques, notamment dans les pays émérgents
- recherche de plus en plus interdisciplinaire
- nombreux changements technologiques
Les éditeurs doivent donc aussi évoluer. Pour répondre aux nouveaux besoins des utilisateurs, Elsevier propose de nouveaux services:
1. Les chercheurs ont besoin d'outils plus spécifiques à leur champ de recherche (more focused tools)
- Elsevier SciVerse -> point d'entrée unique vers plusieurs bases de donnée (du coup ce n'est pas vraiment un outil spécifique, mais passons), mais surtout avec une API permettant aux chercheurs de faire ce qu'ils veulent avec le contenu et de partager ensuite leurs "bricolages" sur une Application Marketplace. Ceci représente un grand risque pour Elsevier, car ils rendent ainsi leur contenu ouvert (oooh, aaah).
- GeoFacets -> outil de recherche de cartes
- BrainNavigator -> outil de visualisation 3D de scans (slices) de cerveau
- Reaxys -> outil de recherche de composés chimiques
2. Le format traditionnel de l'artcile de répond plus aux besoins des chercheurs
3. Les chercheurs ont besoin d'aide pour planifier leur environnement de recherche
- SciVal Spotlight -> crée un carte pour illustrer la performance de divers instituts de recherche, devrait soi-disant être une aide pour définir des stratégies et choisir des partenaires de collaboration
Question du public:
C'est bien joli, mais en attendant Elsevier est surtout un vendeur obligé pour toutes les bibliothèques qui coûte très très cher. Si vous voulez être vraiment "être là pour nous aider", alors aidez-nous plutôt à économiser de l'argent en arrêtant les big deals, diminuer l'étendue de vos paquets.
Réponse d'Elsevier (avec pas mal de culot)
Le problème n'est pas que le contenu est trop cher mais plutôt que le budget alloué à l'information par les institutions de recherche est trop petit, donc les bibliothèques devraient plutôt essayer de travailler à faire augmenter ce budget!!!!
Nous ne devrions pas nous concentrer sur le coût des produits, mais sur les coûts de productivité. Les nouveaux outils Elsevier sont censés économiser du temps aux chercheurs, donc de l'argent.
Autres questions du public pour lui dire à mots polis que c'est un peu du bullshit. Il répond toujours qu'une bibliothèque ne devrait jamais devoir choisir parmi du contenu, la plus value des outils des éditeurs étant en productivité, c'est l'université qui devrait payer pour ces outils sans diminuer le budget des bibs. Yeah, right
Évolutions de l'édition
A. Kuznetsov - neicon.ru
"Soviet times were nice because then I was young". Autre chose qu'on a perdu: stabilité.
La Russie publie presque 2x plus de titres par an que pendant la période soviétique. + circulation incresing.
A la perestroika, bcp de choses ont été détruites, notamment la façon de distribuer l'information en Russie. Deux projets pour y remédier: pushkin megaproject + eIFL.
Problème: les journaux scientifiques russes ne sont digitalisés que depuis moins de 10 ans, du coup il y en a très peu (10%) dans les BDD du genre WoS -> pas représentatif pour analyser.
Préservation de l'héritage culturel
K. Ekholm - National Library of Finland
Selon lui, le marché évolue vers une nouvelle économie du livre, qui est à cheval entre une production d'information produite par les utilisateurs (micro-communication), en général gratuite et la production "officielle", corporate-driven, contrôlée et en général payante.
Dans cet entre-deux, on trouve l'Open Access, ce qui relève de l'héritage national
Cela amène à évoluer la façon d'acheter du contenu (mass-licensing, e-lending...) et de l'utiliser. De nouveaux acteurs sont également apparus, par exemple des entités politiques deviennent maintenant des "éditeurs" avec des opérations de numérisation. Autre exemple, la British Library qui a récemment acheté la correspondance par email d'un poète.
Comment les bibliothèques nationales doivent réagir à l'évolution du copyright, garantir l'accès libre à l'information tout en préservant les droits des auteurs?
- En acceptant les modèles corporate (exemple Google, ProQuest)
- En faisant du mass-licensing (exemple projet BOKHYLLA en Norvège - la bib nationale a négocié une license de masse avec les ayants droits des livres qu'elle a numérisés, plus d'infos en anglais ici)
- Par inertie... (?)
R. Frick - Digital Library Federation (+)
PDF de sa présentation - Ce fichier ne reprend pas seulement les slides mais également tout son commentaire.
"I learned to whisper in a sawmill"
Après les solutions locales, puis les solutions régionales, certains challenges que relèvent les bibliothèques doivent désormais être résolus globalement (= à l'échelle du monde entier), ce sont des macro-solutions
cf le weblog de Lorcan Dempsey de OCLC, "de-centered network presence"
Les projets de collaboration à l'échelle du web sont un bénéfice potentiel pour tous les utilisateurs qui ont accès au web. Exemple du HathiTrust, 27% de leur collection est dans le domaine public.
Cloud-sourcer les collections
Dans son rapport "Cloud-sourcing Research Collections", OCLC a déterminé qu'1/3 du contenu des biblios membre de l'ARL est dupliqué dans le HathiTrust. Donc la plupart des bibliothèques de recherche pourrait reconsidérer sa poldoc print, et désherber ce contenu déjà disponible en ligne ou le stocker dans un silo hors-campus. Cela leur permettrait d'économiser de la place et de l'argent. Mais les facultés tiennent à conserver leur collection locale, ne voient pas l'intérêt d'une solution plus globale...Les bibs doivent apprendre à communiquer et convaincre.
Cloud-sourcer les services
Par ailleurs, il faut aussi commencer à penser à réformer les services des bib pour investir plus d'énergie à relier le bon contenu aux bons usagers plutôt que de passer trop de temps à "managing our stuff". Cf le modèle de cloud d'amazon. Le contenu doit être là où sont les utilisateurs, directement dans les outils qu'ils utilisent.
La biblio devrait moins ressembler à une porte-conteneurs et plus à une planche à voile, plus agile, moins centrée sur le contenu.
Illustration: la présentation à TED "How I fell in love with a fish" de Dan Barber: en recherchant un poisson idéal pour son restaurant, il s'est rendu compte que l'insertion de la ressource (le poisson) dans son écosystème était plus importante que la ressource elle-même.
Le développement des collections devrait se concentrer sur des discussions avec les chercheurs, comprendre comment ils font leur recherche et ce dont ils ont besoin. Et il ne s'agit pas de cesser de développer la collection pour faire ceci, car c'est développer la collection que de se préoccuper des besoins des chercheurs. (ce qu'on fait à l'EPFL ne semble donc pas être la norme...)
Il est donc vital d'utiliser les compétences spécifiques des bibliothécaires scientifiques pour ceci, utiliser les compétences uniques, locales, spécialisées de chacun. Les bibliothèques qui ont vidé les rangs des spécialistes pour en faire des bibliothécaires qui ne font plus que du service public "normalisé" ont commis des erreurs, car elles ont perdu en compétence spécifique.
Penser aux scholars qui vont faire leur propore bibliothèque digitale en étudiant un fonds d'archive, puis publient un article. Qu'advient-il de leur documentation? On doit parler avec eux, et nous concentrer sur ce qui est local et unique mais surtout comment le mettre en relation.
Illustration: le site web "The valley of the shadow" a été créé et maintenu pendant un projet de recherche. Lorsque son créateur a quitté l'institution, le site a été repris par la bibliothèque, qui l'a fait évoluer, a mis à jour les outils pour maintenir l'accès au contenu. Ce travail a été fait par une équipe des "special collections"... ce site web est une "special collection" de cette bibliothèque, unique, locale.
Voir les liens à la fin de sa présentation pour des exemples de solutions locales devenues globales.
Exemple final pour indiquer que l'interconnexion des contenus est tout aussi importante que les contenus eux-mêmes: cet article a montré qu'il y avait plus de liens qu'on ne l'imaginait entre les sciences sociales et les STM:
Bollen J, Van de Sompel H, Hagberg A, Bettencourt L, Chute R, et al. (2009) Clickstream Data Yields High-Resolution Maps of Science. PLoS ONE 4(3): e4803. doi:10.1371/journal.pone.0004803
S. Brooks - ProQuest (pub)
Parle de leur nouveau produit, Early European Books (qui étend leur projet initial Early English Books Online). Longue digression sur l'histoire de l'imprimerie et de la diffusion de la connaissance en Europe entre le 15eme et le 18eme siècle pour expliquer qu'on ne peut pas se contenter de collections nationales, car ne représente pas l'ensemble de la connaissance.
Ils financent de larges projets de numérisation, vendent ensuite le contenu, en contrepartie la bibliothèque qui met son contenu à disposition reçoit les scans et son contenu est disponible en accès libre à n'importe qui au sein du pays dans lequel se trouve cette bibliothèque (via reconnaissance IP). Un peu ironique après avoir parlé pendant si longtemps de l'invalidité de la notion de "pays" dans le cadre d'une telle collection...
Open Access
Bas Savenije
(rien de nouveau, mais bien présenté)
Le but de l'Open Access est de faire en sorte que la communication scientifique soit plus en phase avec le développement des outils utilisés par les chercheurs, augmente l'accès à l'information, augmente l'utilisation des articles et leur impact, traverser la fracture digitale. Et pas de mettre les éditeurs en faillite...
Golden road = free for the reader
Surtout STM. Sources de financement de ce type de journaux: start-up money, stakeholders, publication fee/article processing costs (payés par qui finance la recherche). On considère désormais que les frais de publication représente environ 2% du total du coût d'une recherche.
Problèmes
- cela représente des coûts supplémentaires pour les institutions... Alors que le système (avant l'OA) est déjà trop coûteux. Les budgets des bibs ne peuvent pas évoluer car fortement liés aux big deals.
- Les chercheurs ne font pas confiance à ces "nouveaux venus"
Voies de sortie: les organismes qui financent la recherche pourraient participer (s'ils obligent la publication en OA alors ils devraient allouer des fonds pour la publication), journaux hybrides, nouveaux modèles d'impact (-> les journaux OA deviennent plus "respectables").
Green road = open archiving
Du point de vue des utilisateurs, les bases de données bibliographiques par sujet sont plus intéressantes que les bases institutionnelles (IR)... mais c'est plus difficile à mettre en place. La solution consiste à utiliser l'échange de métadonnées entre les IR pour faire des bdd par sujets par-dessus les IR, mais ça ne marche pas encore très bien.
Pour convaincre les auteurs, il faudrait offrir un workflow plus simple, mandaté par les organes de financement ainsi que des services complémentaires aux chercheurs (personal homepage, d/l statistics, etc). Rien de nouveau, c'est ce qu'on fait avec Infoscience.
Mais les éditeurs font de la résistance, refusent de laisser les auteurs déposer leurs articles dans les IR. Pour s'en sortir, négocier le droit de déposer la final author version dans un IR lorsqu'on négocie des achats avec des éditeurs. Springer OpenChoice est né d'une telle négociaition. Inclure les chercheurs dans la réflexion. Exemple: Harward a décidé de ne pas publier dans des journaux où les auteurs ne peuvent pas archiver le postprint.
Jan Hagerlid - director of Open Access programm of NL of Sweden, openaccess.se
En Suède, la bib nationale a un rôle de coordination pour les bibliothèques (bib académiques depuis 1990 et bib publiques depuis 2011), et gère le catalogue collectif LIBRIS.
Ont signé la déclaration de Berlin et ils sont entre autre chargés de promouvoir OA sous la forme de IR et d'OA journals, supportent certains projets dont DOAJ (basé à Lund).
Emploie une jolie photo pour illustrer le livre électronique, apparemment faite chez eux.
Frans Lettenstrom - Springer (pub)
Travaillait avant sur high-energy physics at CERN -> connait bien la problématique de l'OA
L'arrivée d'internet = la météorite qui a décimé les dinosaures et permis aux mammifères de s'imposer…
SpringerOpen -> pay-to-publish model
Discovery and Use of Content
John Dove - Credo Reference (pub)
Inspiration pour le futur de la référence: Terry Winograd, advisor de Larry Page, prédit Google (search engine intelligent qui utilise les recherches précédentes pour mieux savoir ce que tu cherches), pub pour un référence librarian, pub pour IDEO future of the book.
- 1st party customisation -> you personnalize you own stuff eg iGoogle
- 2nd party -> the website personnalize according to what it knows about you, eg web ads in Facebook
- 3rd party -> the library personnalize tools, eg. link to a specific ressource in a discovery tool
Credo Ref permet ceci car les bibliothèques peuvent personnaliser les topic pages avec les outils qui sont disponibles dans leur institution.
Autre idée: lorsqu'un utilisateur veut citer un article de Wikipedia sur un outil de gestion de citations (EasyBib ?), message pour proposer une autre source (cf screenshot).
Il prétend pouvoir insérer des ressources dans l'OpenWeb, pas compris exactement où ni avec quelle technologie...
Le plugin EPFL Library Link va aussi dans ce sens :)
-----> idée! Ajouter un lien vers nos ressources sur wikipedia!
-----> et Google
cf Curation Nation, même s'il ne parle pas des bibliothèques.
Michael Jubb - Research Information Network
Présente les résultats d'études sur le rôle des bibliothèques perçus par des chercheurs. Rien d'incroyablement étonnant… Présente les résultats de statistiques (deep log analysis), mais pas d'explication pour les différences constatées entre disciplines ou entre institutions, ni sur l'évolution au fil du temps.
A étudié les "humanités digitales" et constate que très peu de chercheurs utilisent des outils avancés (text mining, etc.)
Alice Keller
Utilisation des ebooks? Question: print ou on-screen? (pas étudié les readers car elle n'a étudié que 12 étudiants, aucun n'avait de liseuse)
En utilisant un photo-diary: étudiant prend une photo chaque fois qu'il lit qqch (pas les mails), study AND leisure.
En général: sci journals mostly on-screen, news mixed, leisure books/monographs on print++, references on-line++
research: primary text print++, secondary text electronic+
cf son tableau.
Ensuite, interviews pour savoir pourquoi. Cf ses slides. Rien de nouveau: ils aiment le papier car on peut aller dehors, annoter, pas de problème avec le soleil, le livre comme un objet important, le tournage des pages permet de marquer le passage du temps "working your way through" (+ on sait intuitivement où on en est). Online = distraction.
Dommage que son étude ne couvre pas les liseuses… Remarque dans le public: University of North Carolina = les étudiants utilisent de plus en plus le Kindle, y téléchargent des livres, etc.
Wouter Schallier - LIBER
WikiLeaks and Open Gov Initiative, Hubble -> huge amounts of data that needs to be used and re-used.
The concept of publishing is changing -> micropublishing.
--> new characteristics of e-science
Paradox: I share my data because I need yours VS I don't share it because it doesn't help my career, I want to keep it safe, I don't want other people (mis)using it
-> projet de LIBER ode-project.eu Opportunities for Data Exchange
Buts: résoudre le paradoxe ci-dessus (comment convaincre?) + making primary data usable/useful (organization, preservation, validation, etc) + clarify roles/responsabilities
Ont fait un survey et moins de la moitié des bibliothèques ont dit qu'ils acceptaient primary data for storage and preservation. Pour la plupart car elles n'ont pas les ressources pour ça (argent, personnel). Pourtant, ça va risque de devenir leur primary use. Primary data = new special collections. Libraries must be involved in how data is generated, you can't organize/preserve data if you don't know how it's being created. Pour ça, on va avoir besoin d'expertise (remarque Michael Jubb)! Replace "subject specialists" by people who understand the researchers, are able to talk to them, understand what they need, more humble (listen to researchers instead of telling them what they need).
cf examples cités dans ses slides