Lesewolke

Just another librarian weblog

Posts Tagged ‘Altmetrics

Gelesen in Biblioblogs (17.KW’19)

Auf dem Opus-Server des BIB sind Folien der AG Leihverkehr online, meldete zkbw. Sie tagte im Rahmen des Bibliothekskongresses. Neben anderen Themen drehte es sich um E-Books und die elektronische Lieferung an den Endnutzer.

In einem Video machte Prof. Dr. Isabella Peters (ZBW) deutlich, wie die Bewertung von wissenschaftlichen Publikationen funktioniert und ging dabei auch auf alternative Metriken ein, siehe VÖBBlog.

Martin Ebner erklärte auf der Seite der Bundeszentrale für politische Bildung die verschiednenen Varianten virtueller Lernorte, beispielsweise Learning-Management-Systeme, Web-Based-Training, MOOCs, immersive Lernumgebungen, E-Portfolio-System und Personal-Learning-Environment (via Fortbildung in Bibliotheken).

Eine Sammlung freier Tools für die Weiterbildung von Bibliotheksmitarbeitern findet man bei Library Skills (via Fortbildung in Bibliotheken).

Aubib meinte, dass bei den BayernLabs die Bibliotheken unbedingt mit von der Partie sein sollten. Bei den BayernLabs handelt es sich um IT-Labore mit dem Motto „Anschauen – Anfassen – Ausprobieren“, die bewusst in ländlichen Regionen aufgebaut wurden.

Im Auftrag des Bundesinnenministerium wurde 2019 wieder der Stand der Digitalisierung in Deutschland ermittelt, siehe Index, via Fachstelle ÖB NRW.

Archivalia erläuterte die Funktion sowie Vor- und Nachteile der Browsererweiterung und App NewsGuard. Sie könnte auch in Bibliotheken Einzug halten. Journalisten bewerten Newsplattformen nach 9 Kriterien. Nach dieser Einschätzung wird angezeigt, wie vertrauenswürdig die Seite ist. Damit soll FakeNews entgegengewirkt werden.

Die Verhandlungen mit Deutschland waren zwar vorerst gescheitert, allerdings konnte Elsevier nun mit dem norwegischen Konsortium UNIT einen Vertrag abschließen, siehe MedInfo.

Written by lesewolke

29. April 2019 at 09:15

Mit Zahlen steuern – #bibtag19

Um die Entwicklung von eUsage, einem Modul der geplanten Bibliothekssoftware Folio drehte es sich im ersten Vortrag (Abstract). Dabei sollten die gewünschten Counter-Statistiken der lizenzierten E-Medien bei den Verlagen automatisch heruntergeladen, und dann über das Modul in den Formaten xml, JSON oder csv angeboten werden.

COUNTER Code of Practice Release 5 in der Praxis / Irene Barbers. Bibliothekskongress 2019, S. 6

Irene Barbers erklärte in ihrem Vortrag die Counter-Statistiken und zwar insbesondere die Unterschiede von Counter Release 5 zur Version 4. Die Folien sind bereits online. Die PDF und HTML-Nutzung wird nicht mehr getrennt ausgegeben, da es hier oft zu einer doppelten Zählung kam. Es wird zwischen Investigations (also auch Inhaltsverzeichnisse, Abstracts usw.) und Requests (Volltexte) unterschieden. Darüber hinaus wird zusätzlich eine Nutzung gezählt, auch wenn eine Person in der Session mehrere Kapitel eines E-Books anklickt. Das soll die Zahlen realistischer machen. Bisher haben JSTOR und J-STAGE umgestellt. Weitere Anbieter werden sicher folgen.

Für Bibliothekare sind diese Metriken beispielsweise interessant, um zu entscheiden, welche Lizenzen weiterlaufen und welche storniert werden können. Die Universitätsbibliothek Kassel berechnet beispielsweise den Wert für eine Nutzung (Abstract). Ist diese angesichts der Lizenzkosten derzeit teurer als 100 Euro, wird eine Abbestellung erwogen. Die Lehrstühle können ihr Veto einlegen, müssten dann aber selbst die Kosten übernehmen. Mit dieser Methode sollen Mittel für neue Lizenzierungen frei werden, die nach 2 Kalenderjahren ebenfalls auf ihren Kosten-Nutzen evaluiert werden. Nun klingt das zwar sehr vernünftig, hat aber den Haken, dass Abb- und Neubestellungen eher kleinere Verlage treffen, denn es gibt die großen, fächerübergreifenden Verträge, bei denen keine Einzelentscheidungen möglich sind und die eine großen Teil des jährlichen Erwerbungsetats ausmachen. Die gedruckten Zeitschriften sind mangels statistischer Nutzungserfassung (Präsenzbestand) von der Evaluation ausgenommen.

Interessieren sich Wissenschaftler eigentlich für Metriken? Damit beschäftigt sich gerade eine Studie der SUB Göttingen (Abstract). Zumindest den Journal Impact Factor kennen viele Forschende, auch wenn sie nicht genau wissen, wie die Zahlen zu stande kommen. Zeitschriften mit hohem JIF sind angesagt, weil die Publikation dort gefordert wird und Prestige verspricht. Altmetrics wird dageben nicht vertraut, seitens der Wissenschaftler zeigen sie eher Popularität an, sind manipularbar und schlecht vergleichbar. Bei den Zahlen zu Zitationen wurde der Wunsch geäußert, dass man auch sieht, wie oft positiv oder negativ zitiert wurde. Die Empfehlung hinsichtlich der Metriken lautete, dass es Forschende unbedingt lernen und verstehen sollten, was hinter den Metriken steckt. Obwohl das Wort „Metriken“ im Weiterbildungsangebot kein Zugpferd ist. Darüber hinaus kann das Interesse am Thema auch dadurch geweckt werden, dass beispielsweise die Publikationsserver Metriken anzeigen.

Im Wikiversum wirken“ (Folien) hatte eher indirekt mit Statistiken zu tun. Bei einem Serverumzug der Online-Publikationen der Bibliothek für Bildungsgeschichtliche Forschung (BBF) gab es Nachfragen zu fehlerhaften Links in Wikipedia. Tatsächlich kam und kommt über die Hälfte der Zugriffe besonders auf bildungshistorische Schriften eben aus der Online-Enzyklopädie. Das weckte das Interesse. Die Links einer bestimmten Institution zu finden ist dort trotzdem nicht einfach, da es unterschiedliche Darstellungsformen bei Links gibt. In den Folien wird dies gut dargestellt. Die Online-Dokumente wurden jedenfalls gefunden und zitiert. Die Mitarbeiter nahmen dies zum Anlaß, Wikipedia in einem Workshop besser zu verstehen und eventuell auch mal den ein oder anderen falschen Link zu ihren Dokumenten zu korrigieren. Persistente Identifier sind auch für die Zitation in Wikipedia nützlich.

Written by lesewolke

28. März 2019 at 08:45

Offene Metriken für wissenschaftliche Daten #bibtag16

with 3 comments

In seiner Einleitung erklärte Daniel Beucke einiges zu offenen Metriken (Präsentation). Bekannt sind diese auch unter dem Begriff Altmetrics. Wobei „alt“ hier für alternativ steht. Die bisherigen Messungen basieren auf dem Impact Factor der Zeitschrift, in welcher der Wissenschaftler es geschafft hat, seinen Artikel zu platzieren. Dieser Faktor sagt also eigentlich etwas über die Beliebtheit der Zeitschrift aus und nichts über die konkrete Forschungsleistung des Artikelautors. Bekannterweise gibt es zahlreiche weitere Kritikpunkte am Journal Impact Factor (JIF). Neuerdings beschäftigen sich daher einige kommerzielle (Altmetric, Plum, Impactstory) und freie (Crossref, Plos, Lagotto) Anbieter mit Altmetrics, also Statistiken zur Verbreitung von Artikeln über soziale Netzwerke und Downloads. Arbeitsgruppen bei NISO und COAR versuchen Standards festzulegen, was und wie gezählt wird.

NISO veröffentlichte beispielsweise dazu den Entwurf Altmetrics Data Quality Code of Conduct, den man noch bis zum 31. März 2016 kommentieren kann, wie wir von Martin Fenner (Präsentation) dem 2. Redner dieses Vortragsblocks erfuhren. Er arbeitet mit an Lagotto, einer Software die Open Source sein soll, bei die Ermittlung der Werte transparent ist und sich bei der Messung ebenso wie Altmetric vor allem auf DOIs konzentriert. Stephan Büttgen von EBSCO stellte Plum Analytics vor. Dabei werden verschiedenste Veröffentlichungsarten und Identifikatoren herangezogen.

Gernot Deinzer von der Universitätsbibiothek Regensburg (Präsentation) sah sich die Downloads vom Repositorium der Hochschule an und stellte fest, dass vor allem Hochschulschriften heruntergeladen werden, für Zweitpublikationen gilt dies deutlich weniger. Meist gelangen die Leser über andere Universitätsseiten oder Wikipedia zu den Veröffentlichungen, eher selten über den Bibliothekskatalog. Interessant könnte auch der EZB-Linkingdienst werden, um darüber eine Weiterleitung zu Artikeln zu zählen.

In der abschließenden Diskussion wurden Altmetrics eher als zusätzliche Messung und nicht als Alternative zum JIF gesehen. Die ermittelten Zahlen sollten angeboten werden. Eine Interpretation muss den Forschenden selbst überlassen werden. Obwohl diese ähnlich problematisch ist, wie beim JIF. Aufmerksamkeit erregen bedeutet nicht immer, dass Ergebnisse als positiv angesehen werden. Gerade umstrittene Thesen können viele Zitationen und Verlinkungen nach sich ziehen. Zur Zeit können zudem nur Portale in die Messung einbezogen werden, die eine API-Schnittstelle haben. Das gilt z. B. nicht für Researchgate, einem gern genutzten Netzwerk von Wissenschaftlerinnen und Wissenschaftlern. Weiterhin benötigen Dokumente, die in die Messung eingehen, einen Identifier, idealerweise eine DOI. Außerdem wurde eine größere Verbreitung der Anzeige von Nutzungsstatistiken in Repositorien gewünscht, bei Zweitpublikationen am liebsten zusätzlich diejenigen vom Original. Bewertungen der Leser (z.B. Sterne) für Beiträge könnten eine weitere Form der Messung sein. Allerdings gelten diese als etwas abschreckend für Autoren.

Written by lesewolke

21. März 2016 at 10:00

Veröffentlicht in Bibliothekskongress 2016

Tagged with ,