Accès direct au contenu

English flag English

Recherche avancée

ADBS
L'association des professionnels de l'information
et de la documentation


Vous êtes ici : Accueil > Accéder à la doc professionnelle > Nous avons lu...

Digital Curation of Research Data. Experiences of a Baseline Study in Germany / Heike Neuroth, Stefan Strathmann, Achim Oßwald, Jens Ludwig (Eds.)

publié le 16 septembre 2014

Glückstadt : Verlag Werner Hülsbusch, , 2013. – 92 p. - ISBN 978 -3-86488-054-4 : 12,80 €. Téléchargeable en ligne

Analyse de Joachim SCHÖPFEL
joachim.schopfel[at]univ-lille3.fr



ENQUÊTE SUR L'ACCESSIBILITÉ À LONG TERME DES RÉSULTATS DE LA RECHERCHE

Les données de la recherche sont à l'ordre du jour dans le milieu de l'enseignement supérieur et de la recherche. Les bibliothécaires et documentalistes y auront un rôle à jouer. Le Ministère le leur a rappelé, lors des journées des directeurs des BU et autres services d'IST, début juin à Paris. Mais quel rôle exactement ? Et comment le jouer ?

Voici un petit rapport financé par le réseau Nestor des services d'archivage pérenne des ressources numériques en Allemagne, qui s'ajoute au nombre grandissant d'analyses de besoin, d'articles et d'événements à ce sujet. Son intérêt est double : il s'agit d'une étude de benchmarking, et le document de synthèse - dans un anglais assez facile à lire - est diffusé gratuitement en ligne, sous licence Creative Commons Attribution CC-BY 3.0.

Des réalisations en matière d'archivage des données
Le terme benchmarking désigne ici l'analyse des bonnes pratiques de ceux qui sont déjà expérimentés dans la gestion et la conservation à long terme de ces données. À la différence avec d'autres publications sur le même sujet, les auteurs - des enseignants-chercheurs et bibliothécaires de Göttingen, Cologne, Dortmund et Leipzig --ne s'attellent pas à évaluer les besoins sur le terrain, mais s'intéressent à la gestion et à l'archivage des données de la recherche là où cela fonctionne déjà et où cela fonctionne bien.
Le maître mot est digital curation, c'est-à-dire l'accessibilité à long terme des résultats de la recherche et de leurs métadonnées. Le premier chapitre explique la signification de tous ces termes, mais ne cache pas que, dans certains cas, il n'y a pas (encore) de définition acceptée et reconnue.
Les chapitres deux et trois décrivent comment plusieurs organismes de recherche et d'infrastructure allemands et internationaux, dont l'UNESCO, l'OCDE, l'Union Européenne et l'OMS, abordent cette thématique, comment ils ont mis en place une politique en matière de données, avec quel genre de recommandations, etc. Deux réalisations exemplaires sont citées, celles de la National Science Foundation (NSF) aux États-Unis et de l'Australian National Data Service (ANDS).

Le succès des collaborations collectives
Tout cela est instructif et permet de mieux comprendre un paysage complexe et dynamique. Mais la partie la plus intéressante vient après, là où les auteurs font la synthèse de leur enquête (chapitres 4 à 6). L'approche était d'identifier les bonnes pratiques et les facteurs de succès, et ceci dans onze disciplines scientifiques, y compris la médecine et les sciences humaines et sociales.
Parmi les résultats, citons trois aspects : tout d'abord, les réalisations réussies sont en règle générale collaboratives, fédérant plusieurs institutions et organismes autour d'un domaine, d'un équipement ou d'un objet d'investigation. Certes, certains établissements optent pour une approche isolée, mais les auteurs posent la question de l'efficacité et de l'efficience de telles solutions. Un deuxième résultat est la grande diversité de formats de données et surtout, de métadonnées - chaque discipline a ses propres métadonnées, souvent peu normalisées, ce qui ne pose pas de problème pour la gestion au quotidien, mais devient un obstacle pour la conservation à plus long terme. Ici, l'application d'identifiants uniques et pérennes, en premier lieu le DOI attribué par le réseau DataCite (en France, par l'INIST), joue un rôle important. Un troisième résultat est l'organisation centralisée de la gestion des données dans les institutions qui fonctionnent bien, avec une certaine sécurité et une stabilité en matière de financement (interne ou sur projet) et de ressources humaines, avec une qualification le plus souvent acquise « sur le tas ».

Des recommandations pour mener un projet
À l'issue de cette enquête et à partir des expériences réussies, les auteurs formulent 34 observations et recommandations pour une politique de gestion, de diffusion et de conservation des données de la recherche, allant du général au plus précis, par rapport à la formation des personnels, aux formats de métadonnées, au financement, etc. Il s'agit d'une sorte de référentiel ou de check-list pour tout projet dans ce domaine. Rien que pour ces huit dernières pages, ce texte mérite d'être lu. Les résultats de l'enquête ont été publiés en intégralité en 2012 en allemand, ce qui en limite la diffusion. Ce petit rapport en anglais s'adresse donc à un public international, avec une version abrégée et synthétique. Voir comment font les autres pour réussir est toujours intéressant, même si les conditions ne sont pas nécessairement les mêmes. Aussi, il ne faut pas prendre les bonnes pratiques comme une recette à suivre à la lettre, mais plutôt comme une option, une contribution au débat qui s'annonce sur l'évolution des services et métiers en matière de données de la recherche.


Rédigé par ADBS

mise à jour le 17 septembre 2014


L'ADBS sur les réseaux sociaux

NOUS SUIVRE
    

PARTAGER CETTE PAGE

haut de la page

ADBS.fr - Site du premier réseau européen de documentalistes