Zum Inhalt springen

Altmetrics und Rankings bei Artikel-Publikationen Für mehr Transparenz

Aus Wikiversity

Rankings bei Artikel-Publikationen? Mehr Transparenz! #altmetrics zeigt sinnvolle Ansätze – mit offenen Fragen

[Bearbeiten]

doi:10.6084/m9.figshare.1538566 (seit September 2015)

Abstract

[Bearbeiten]

Rankings bei Artikel-Publikationen? Mehr Transparenz! #altmetrics zeigt sinnvolle Ansätze – mit offenen Fragen. In welchem Kontext und nach wessen Kriterien wird der Einfluss (Impact) wissenschaftlicher Artikel gemessen? Verschiedene alternative Initiativen setzen mit dem Stichwort #altmetrics bereits Interessantes um, damit der sogenannte Journal Impact Factor (JIF) an Einfluss verliert – zugunsten von Article level metrics (ALM). Zunächst geht es allerdings allgemein um mehr Transparenz, und an ungelösten Fragen bezüglich Rankings aller Art fehlt es auch bei #altmetrics nicht, meint Claudia Koltzenburg, die in ihrem einführenden Beitrag einige Zusammenhänge kritisch aufzeigt.

Vorab

[Bearbeiten]

Für Rankings von Zeitschriften hatte sich bisher in Wissenschaftsgebieten, in denen Forschung weit überwiegend in Artikeln veröffentlicht wird, international ein Messverfahren etabliert, das in Form des sogenannten Journal Impact Factors (JIF) wie eine Währung zum Einsatz kommt: Der JIF ist ein Maßstab, der als kapitalistisches Handelsgut eingesetzt wird. Denn wer Karriere machen will in einem der JIF-Wissenschaftsgebiete, bekommt recht schnell mit, dass es beim Publizieren nicht primär um das Öffentlich-Machen geht, sondern scheinbar nur darum, dem eigenen Namen durch das geschickte Sammeln von Impact-Punkten das nötige Renommee zu verleihen. Die Spielregel lautet daher, einen Artikel am besten zuerst an das Journal mit dem höchsten JIF zu senden. Dies ist aber nur dann sinnvoll, sofern mein Autor*nnenteam und ich vermuten, bei dem höchstgerankten Journal auf geeignete Peer Reviewer zu treffen, die fachlich mit aktuellen Entwicklungen vertraut sind und zudem fair damit umgehen, die also den Beitrag weder zeitlich verzögern oder vorab plagiieren noch aus rein strategisch-parteilichen Gründen aufgrund eigener Forschungs- und Profitinteressen ablehnen. Sehr gute Peer Reviewer gibt es viele, aber es ist nicht klar, wie ich unseren Beitrag rechtzeitig auf ihren Bildschirm bekommen könnte und mit welcher Einreichung wir dafür unsere Chancen auf brillante fachliche Kritik erhöhen würden. Da eine weitere Spielregel besagt, dass ein Artikel nur an ein Journal zur Zeit gesendet werden darf, ist leicht auszumalen, zu wieviel Verzögerungen es kommt, zumal die Ablehnungsraten der Journals mit hohen JIF offiziell bei 80% oder höher liegen.

Für Forscher*nnen als den Produzent*nnen von neuem Wissen ist das JIF-System demnach nicht effizient – zumindest für die überwiegende Mehrheit nicht. Die Frage ist, was in welchem Kontext ausgemessen werden soll und mit welcher Bedeutung es versehen wird. Aus meiner Sicht ist es in gesamtgesellschaftlichem Interesse, dass Bestrebungen unterstützt werden, die geeignet sind, hinsichtlich des JIF und seinen Folgen grundlegende Veränderungen herbeizuführen.

Mit diesem Beitrag gebe ich zunächst eine knappe Einführung in mir schädlich erscheinende Publikationspolitiken. Ich fordere mehr Transparenz und gehe in diesem Zusammenhang auch auf die aktuellen Open Access-Bestrebungen des Deutschen Bundesrates ein. Konkret stelle ich dann mit impactstory.org eine Initiative aus dem #altmetrics-Umfeld vor, deren Impulse aus meiner Sicht begrüßenswert sind. Abschließend zeige ich offen Fragen auf und begründe, warum ich meine, dass auch die Machart von alternativen Rankings weiterhin kritisch geprüft werden sollte.

Kritik am Journal Impact Factor (JIF)

[Bearbeiten]

Was beim Hochschulranking in Mode gekommen ist, nämlich eine Institution als Ganze zu messen, wird nicht zuletzt dank #altmetrics im Bereich des wissenschaftlichen Publizierens zunehmend als unsinnig erkannt. Da die Qualität der Artikel innerhalb ein und desselben Journals stark schwanken kann, scheint es erstens nicht plausibel, Journals als Ganze mit Ranking-Anzeigern zu versehen (JIF) und zweitens nicht, dies als einziges Messinstrument einzusetzen, nur weil es sich etabliert hat – zumal es seit Jahren fundierten Einspruch gibt, u.a. aufgrund der leichten Manipulierbarkeit des JIF.[1] Anzumerken ist auch, dass nicht die Editorial Boards selbst entscheiden, ob sie ihre Zeitschrift für dieses Ranking listen lassen, denn das JIF-Verfahren befindet sich in Händen eines einzigen Konzerns (Web of Science/ WoS gehört Thomson Scientific), dessen Management Entscheidungskriterien für eine Aufnahme nicht offenlegt.[2]

Der JIF ist allem Anschein nach lediglich dafür gedacht, anzuzeigen, als wie einflussreich ein gelistetes Journal angesehen werden soll. Es handelt sich damit um Ergebnisse eines Brandings, das kapitalistisch erfolgreich ist, und zwar für ein bestimmtes Produkt eines bestimmten Verlags, der beim Monopoly mitmachen wollte und es »geschafft hat« sich als zugehörig ansehen zu lassen. Für kleine Journals ist eine Listung sogar mit einem finanziellen Risiko verbunden, weil sie allein aufgrund einer Listung eine große Flut von unpassenden Einreichungen erhalten, deren Ablehnungen viel Arbeit und Kosten verursachen. Der JIF nützt also zumeist etablierten Journals, die im Zweifelsfall aus anderen Quellen wirtschaftliche Substanz zuführen könnten, hat überwiegend mit Produktmarketing zu tun und mit der Qualität einzelner Artikel keinesfalls, da es auch in Journals, die nicht bei WoS gelistet sind, einflussreiche Artikel gibt.

Für ein Mehr an transparentem »Open«

[Bearbeiten]

Wie hängen hier Transparenz und Offenheit zusammen? Wenn Hochschulen geraten wird, sich zunehmend als Unternehmen aufzustellen, sei ihnen aus meiner Sicht erst recht geraten, das Fazit des Unternehmensberaters Jörg Staute zur Kenntnis zu nehmen. In Das Ende der Unternehmenskultur[3] kommt Staute 1997 zu dem Schluss, dass ein fair angelegtes Mitspracherecht sowie Transparenz seitens der Leitung unabdingbare Faktoren einer Offenheit sind, ohne die wirtschaftlich nichts gut laufen wird. Auch wissenschaftlich nicht, so meine These, aber die ist nicht von mir und nicht neu, ich will sie hier nur erneut belegen. Aus meiner Sicht ist es dabei einerlei, ob Offenheit als Teil von Transparenz oder, umgekehrt, Transparenz als Teil von Offenheit angesehen wird: Sie bedingen einander. Offenheit (Openness[4]) würde ich simpel fassen als: »Du darfst von mir aus dies oder das tun und ich schätze mich damit großzügiger ein als andere«, Transparenz als: »Ich zeige hiermit, wie dies oder das bisher zustande kommt/ gekommen ist, bitte erhebe Einspruch, wenn du einen besseren Vorschlag hast oder aus welchen Gründen du nicht einverstanden wärest, wenn ich weiterhin so verfahre«. Auf Aspekte von Fairness diesbezüglich komme ich in meinem letzten Abschnitt zu sprechen.

In Debatten um wissenschaftliches Publizieren wird derzeit »open« meist identisch gesetzt mit »Open Access«.[5] Dabei könnte mit Transparenz schon vor dem »Publizieren« begonnen werden, also viel früher als bei der Frage, ob Leser*nnen oder ggf. deren Institutionen für das Lesen von wissenschaftlichen Artikeln an Verlage etwas zahlen müssen und mit welcher freien Lizenz ein Artikel versehen ist.[6] Ich bin zum Beispiel der Ansicht, dass Autor*nnenteams ihre Beiträge in offenen Wikis verfassen sollten, damit der Entstehungsprozess des Beitrags sowie der Anteil der Co-Autor*nnen am Ergebnis auch öffentlich möglichst transparent nachzuvollziehen ist.[7] Diese Praxis wäre aus meiner Sicht nicht nur für JIF-Wissenschaftsbereiche angesagt, sondern in jedem Fach sinnvoll, wo in Teams gearbeitet und publiziert wird. Und da ohnehin niemand allein und ohne die Unterstützung anderer forschen kann, ist das Anliegen – wenn man es ernst nehmen möchte – schon für Zitationen und Danksagungen relevant, also in jedem Fachgebiet.

Kritik an der deutschen Bundesratsinitiative zu Open Access

[Bearbeiten]

Der deutsche Bundesrat hat sich in seiner Sitzung am 12.10.2012 mit Open Access befasst und empfiehlt die Verankerung eines unabdingbaren Zweitveröffentlichungsrechts.[8] Das an sich klingt in meinen Ohren gut, sofern Verlage das Zweitveröffentlichungsrecht erhalten und das Erstveröffentlichungsrecht beim Autor*nnenteam verbleibt. Anfang der 1990er Jahre war dies die Grundlage eines Konzepts, das zunächst für ein Gebiet der Physik umgesetzt wurde (arxiv.org), ein sogenannter preprint-Server. Autor*nnen laden ihre Beiträge dort kostenlos und frei verfügbar hoch und falls die Editors eines Journals Interesse daran haben, den Artikel nach ihrem Peer Review zu veröffentlichen, nehmen sie mit den Produzent*nnen Kontakt auf. So stelle ich mir wissenschaftliches Publizieren vor – sofern es weiterhin Journals geben soll für Leser*nnen, die vor allem anhand von Zeitschriftentiteln eine gewisse Orientierung suchen. Ich plädiere für freies Publizieren im Web[9] in Kombination mit post publication peer review, weil ich meine, dass zensurfreies Publizieren die Grundlage für einen demokratischen Umgang mit neuem Wissen ist, vor allem bei Wissenschaft in Zeiten des Web.

In der Bundesratsinitiative 514/1/12 ist es aber leider gar nicht so gemeint. Die Regelung, die in §38 UrhG verankert werden soll, würde es Wissenschaftler*nnen lediglich ermöglichen, Publikationen nach Ablauf von sechs Monaten auf Repositorien frei zugänglich zu machen. Immerhin, sagen viele. Im Schwange der zunehmenden Kommodifizierung von Wissenschaft[10] droht ein anderer Aspekt allerdings leicht aus dem Blick zu geraten: Forschung soll auch hier als Profitquelle nutzbar gemacht werden[11] und insofern Open Access zur Erreichung dieses Ziels ein taugliches Mittel ist, soll es der Standard im wissenschaftlichen Publizieren werden, aber nur dann. Nun könnte man sagen: Es ist ein kluger Schachzug der Open Access-Befürworter*nnen, den ökonomischen Nutzen von Open Access bzw. die Einsparungsmöglichkeiten für öffentliche Haushalte und Drittmittelgeber*nnen vorzurechnen.

Meiner Einschätzung nach sind die Vorteile von Open Access allerdings noch größer, wenn es darum geht, Transparenz in der Wissenschaft als sozialem System zu befördern und zu verankern, in diesem Fall vor allem bei den Prozessen des Schaffens von Wissen und beim Publizieren (was im Fall des Schreibens in offenen Wikis so gut wie dasselbe ist). Mit Open Access, und zwar stets inklusive freier Lizenzen definiert, wird zum einen für Leser*nnen eine enorme Unabhängigkeit von eigenen finanziellen Beschränkungen geschaffen und zum anderen für Autor*nnen(teams) die Möglichkeit, eigene Beiträge an mehreren Orten und in verschiedenen Argumentationskontexten sichtbar zu machen, seien sie als Volltexte anderswo republiziert oder offen verlinkt. Denn Transparenz bezieht sich auch auf das Findbar-Machen und Finden-Können und befördert damit in der Forschung Qualität, weil leichter auszumachen ist, was Andere bereits Kluges zu meinem Thema gesagt haben, worauf ich dann gleich aufbauen kann.

Transparentes Findbar-Machen und Finden-Können: Diese Prinzipien gelten nicht nur für den Stoff, der Messverfahren von Impact und Rankings zugrunde gelegt wird – denn was Open Access zu lesen ist, lässt sich leichter rezipieren und sogar direkt verlinken –, sondern Transparenz in diesem Sinne gilt auch für die Verfahren selbst.

#altmetrics: ALM und weitere alternative Ansätze

[Bearbeiten]

Kommen wir zurück zu der Frage, welcher Kontext mit welcher Bedeutung für dasjenige versehen wird, was da gemessen werden soll. Gemessen werden soll der Einfluss von wissenschaftlichen Artikeln, u.a. mit dem Ziel, herauszufinden, welche Beiträge von welchen Personen als besonders relevant angesehen werden sollten für einen bestimmten Forschungszusammenhang. Die Bedeutung dessen, was gemessen worden ist, hängt mit dem zusammen, was die betreffenden Personen selbst bzw. ihre Kolleg*nnen, künftigen Kolleg*nnen oder Vorgesetzten, Arbeitgeber*nnen, Funder, Peer Reviewer oder Kooperationspartner*nnen daraus meinen schließen zu können. »We need ways to get a handle on what’s out there, and what’s good«, fasst Jason Priem den Bedarf zusammen. Dies an sich ist aber noch nicht als alternativ anzusehen, also kommt es auf die Frage nach dem Kontext an.

Mit dem hashtag #altmetrics twittern derzeit verschiedene Initiativen bzw. Unternehmen und ihre Unterstützer*nnen bzw. bezahlten PR-Leute. Bei #altmetrics handelt es sich um alternative Messverfahren (»alternative metrics«) für das Beziffern des Einflusses von Artikeln, die in wissenschaftlichen Zeitschriften publiziert werden. Neu bei #altmetrics ist

  1. dass der Kontext des einzelnen Artikels der Artikel selbst ist, nicht mehr ein Journal, in dem der Artikel publiziert worden ist. Der neue Terminus heißt hier Article level metrics (ALM).
  2. ist bei #altmetrics am Kontext neu, dass es die Nutzer*nnen von Web 2.0 sind, die mit ihrer Reaktion auf publizierte Artikel im Web Daten produzieren, die
  3. mit neuen Funktionen und auf neuen Plattformen zu diesem Zweck gemessen werden sollen (Tracking scholarly impact on the social Web, nennt PLoS One einen Call for papers für Ende Januar 2012).

Schon 2010 verfassten Jason Priem, Dario Taraborelli, Paul Groth und Cameron Neylon altmetrics: a manifesto und argumentierten, dass es vier Arten gebe, Impact zu messen: Nutzungsstatistiken (usage), die Downloads und Views zählen; Begutachtung (peer review), also Heranziehung der Meinung von Expert*nnen desselben Fachgebiets; Zitationen (wie häufig ein Artikel in Literaturlisten anderer Artikel zu finden ist); alternative Verfahren im Web (alt-metrics), die darauf basieren, wie häufig ein Artikel für andere sichtbar gespeichtert oder verlinkt wird, als Bookmark verzeichnet ist oder bei Diskussionen herangezogen wird. Nur zwei Jahre später, im Oktober 2012, ist via #altmetrics zu lesen, dass nach PLoS und dem Institute of Physics (IOP) auch Nature Publishing Group (NPG) ein ALM-Produkt für zunächst 20 Journals nutzen wird. Claire Bower wiederum, Digital Comms Manager der British Medical Journal (BMJ) Group, steuerte jüngst sogar einen Überblicksartikel bei: Article-level metrics: which service to choose? – dies von Seiten eines großen Publishers zu sehen, ist ein Novum und es zeigt aus meiner Sicht an, dass wirklich etwas in Bewegung gekommen ist.

impactstory.org

[Bearbeiten]

Eine der #altmetrics-Initiativen, die not-for-profit und open source arbeitet, möchte ich besonders vorstellen: Impactstory.org – das sind vor allem Heather Piwowar und Jason Priem, zwei junge Open Data-Expert*nnen, die in Kanada und den USA arbeiten und jüngst für dieses Projekt eine Förderung durch die Sloan Foundation erhalten haben: "Our metrics data (like our source code) is completely open and free of charge. As a philanthropically-funded not-for-profit, we're in this because we believe open altmetrics are key for building the coming era of Web-native science", heißt es im Abschnitt "it's on us" auf der Startseite. Ihr "We help you tell the full story of your research impact" basiert darauf, dass Forscher*nnen selbst bekanntgeben, wo und wie ihre Publikationen Wirkung zeigen. Ziel ist es, Forscher*nnen zu ermöglichen, auf der Basis von bezifferbaren Daten leichter herauszufinden, welche Wirkung ihre Arbeiten darüber hinaus erzielen.

Wer den Service nutzen will, setzt zunächst Pointer zu den eigenen Arbeiten. Das können Artikel, Slides (z.B. Grafiken), Datensätze, Software oder auch eine Webseite (z.B. mit einem Wiki oder Lab Notebook) sein. Im Wesentlichen sieht das Impactstory-System dann im Web nach, und zwar in mehr als ein Dutzend Application Programming Interfaces (API), wo ein Impact zu den Objekten, auf die die Pointer zeigen, zu verzeichnen ist ("We track impact across the Web."). Gesucht wird u.a. bei Wikipedia, Github, Figshare, PubMed, Mendeley, ORCID, Twitter und Dryad.

Unterschieden wird dann nach zwei Faktoren:

  1. wer das Objekt zur Kenntnis nimmt bzw. weiterverwendet, also ob es sich um Wissenschaftler*nnen oder um Nutzer*nnen der allgemeinen Öffentlichkeit handelt und
  2. was mit diesen Objekten gemacht wurde: wurden sie angesehen, diskutiert, gespeichert, zitiert oder anderen weiterempfohlen?

Am Stil der Häufig gestellten Fragen (FAQ), die ich von ihrer Transparenz her als vorbildlich ansehe, wird deutlich: Hier konzipiert, programmiert und spricht eine junge Generation, für die Wissenschaft immer schon im Web stattfand.

Für die angestrebte Gruppe von Nutzer*nnen hält Impactstory.org aus meiner Sicht, was es verspricht: In unter einer Minute hatte ich einen Account angelegt, eine meiner Arbeiten, die im Web verfügbar oder verzeichnet sind, mit Pointer versehen und konnte die dafür ermittelte Statistik sehen. Angezeigt wird mir auch gleich, bei welchem API diese Informationen gesammelt wurden. Diese Transparenz und Leichtigkeit überzeugt mich.

Impactstory.org fühlt sich für mich an wie ein selbstorganisiertes Kooperationsangebot. Wenn ich eigene Ideen zur Verbesserung beitragen will, kann ich selbst eine Erweiterung programmieren und diese open source beisteuern oder in Worten Vorschläge machen. Heather und Jason sind der offenen Kooperation im Web verpflichtet und legen es darauf an, mit Impactstory.org ebenso gut wie kommerzielle Angebote zu sein, aber eben not-for-profit und open source: »Web-native science« im Stil der Open Data-Generation.

Ich wünsche Impactstory.org, dass ihre Macher*nnen es sich leisten können, not-for-profit und open source zu bleiben und ich denke, dass die Chancen gut stehen, weil Heather und Jason Sachen anpacken, an denen sie erfolgreich dranbleiben. Zudem erhalten sie breite Unterstützung in der Open Science advocacy community (so meine Einschätzung aus den knapp vier Jahren, seit ich Heather und Jason erstmals im Netz über den Weg gelaufen bin).

Offene Fragen

[Bearbeiten]

Welche Fragen sehe ich als ungelöst an?

A. Die Datenbasis und ihre Zusammensetzung: Dass viele Forscher*nnen ohne Webzugang mit ihren wissenschaftlichen Interessen und Aufgaben weniger schnell und weniger international vorankommen, leuchtet den meisten heute sofort ein. Dennoch kann Forschung, die nicht im Web verlinkbar oder verzeichnet ist, Wesentliches beitragen zu ihrem Gebiet, und auch weiterhin forschen weltweit viele Leute ohne das Web zu nutzen zu interessanten Fragen, egal in welchen Sprachen sie das tun und in welchen Sprachen sie dann mit anderen darüber debattieren. Wenn hier also von »Impact« gesprochen wird, geht es bei der Datenbasis lediglich um einen Ausschnitt dessen, was gearbeitet und publiziert worden ist. Wie werden #altmetrics-Verfahren mit diesen Lücken fertig? Genauso wie die bisherigen, also nach dem Motto: Den ganzen Rest ignorieren wir einfach?

B. Was werden bei der Gelegenheit des Aufenthalts meiner Rechner-IP auf dieser oder jener Service-Seite noch für Daten gesammelt und kann ich diese Daten als Open Data selbst irgendwo finden? Also, wenn Messverfahren für bestimmte Zwecke entworfen werden, für welche anderen Zwecke sollen User sich möglicherweise auf einer bestimmten Webseite aufhalten?

C. Wie können bei Artikel-Rankings die Namen derjenigen einbezogen werden, deren Anregungen vor der Publikation wertvoll waren? Erstens werden in Danksagungen (Acknowledgements) wesentliche Beiträge benannt – sonst würden sie ja nicht erwähnt – und zweitens ließen sich vermutlich die Chancen für eine Geschlechterparität verbessern. Nach meiner Erfahrung sind weiblich sozialisierte Personen eher bereit, solide und sachdienliche Anmerkungen zu einer entstehenden Arbeit zu geben, ohne eine explizite Namensnennung dafür zu fordern. Wenn offen in Wikis gearbeitet wird, lässt sich für die Arbeit aller Geschlechter faire Anerkennung bewerkstelligen, indem sich die Person für ihren gutachterlichen Beitrag selbst einloggt, entsprechend agiert und damit bei den Versionsunterschieden eindeutige Spuren hinterlässt. Offenheit und Transparenz greifen hier dann bestens Hand in Hand und Beteiligungen lassen sich zusätzlich statistisch erfassen.[12]

D. Aus Gründen der Fairness fordere ich Transparenz zuallererst bei den »Großen« (Reichen, Mächtigen). Warum, das lässt sich am Beispiel des Konzerns Monsanto und dessen Machenschaften bei Saatgut aufzeigen, denn hier wird immer wieder vorgeführt, wie Konzerne frei zugängliches Wissen sozusagen rauben, indem sie es mit Knebelverträgen kommodifizieren – und damit ungestraft davonkommen. Auch Forschungsergebnisse sind Saatgut im weitesten Sinne und Openness und Transparenz muss so eingesetzt werden, dass nicht diejenigen, die etwas mit offenen Lizenzen publizieren, beraubt werden, etwa weil sie nicht wie ihre Räuber die Ressourcen und die Übung haben, auf die Schnelle Patente zu beantragen (und dann nicht die Chuzpe und die finanziellen Mittel, bei Ideenklau dagegen international zu prozessieren). Die offene Frage ist hier also: Wie können alternative Verfahren bei Artikel-Rankings, die nicht unwesentlich darauf basieren, dass Forscher*nnen ihre Beiträge open access verfügbar machen, tatsächlich ermöglichen, dass mit den Beiträgen aller fair umgegangen wird?

Abschließend noch meine Antwort auf die Frage, warum die Machart von Rankings weiterhin kritisch geprüft werden sollte: Rankings haben mit Statistiken zu tun, deren Rechenoptionen und Verknüpfungen aufgrund bestimmter Konzepte ersonnen werden. Am 17. Februar 2011 förderte ein spontaner Kommentar zu einem Tweet elegante neue Weisheiten für mich zutage: Statistiken seien wie Bikinis, das Interessanteste zeigen sie nicht!, so ein re-tweet von Fabiana Kubke. Woraufhin Egon Willighagen bei friendfeed.com: Kommt drauf an, wie man den Bikini trägt :)]. Das heißt: Wer trägt hier wie einen Bikini, wer bekommt dies mit und redet wie darüber? Es ist wesentlich, im Auge zu behalten, in wessen Interesse zu welchem Zweck überhaupt derlei Maß genommen werden soll.

Was ich zitiere oder auf was ich in den Anmerkungen verweise

[Bearbeiten]

Adler, Nancy, A.K.W. Harzig. When Knowledge Wins: Transcending the sense and nonsense of academic rankings. In: The Academy of Management Learning & Education, vol. 8, no. 1 (2008), pp. 72-95. Open access: http://www.harzing.com/download/wkw.pdf

Bower, Claire. Article-level metrics: which service to choose? blogs.bmj.com, 26 October 2012, http://blogs.bmj.com/bmj-journals-development-blog/2012/10/26/article-level-metrics-which-service-to-choose/

Casadevall A, Fang FC. Causes for the persistence of impact factor mania. 2014. mBio 5(2):e00064-14. doi:10.1128/mBio.00064-14. Published 18 March 2014, http://mbio.asm.org/content/5/2/e00064-14.abstract

Deutscher Bundesrat. BR-Drs. 514/1/12: http://www.bundesrat.de/cln_330/SharedDocs/Drucksachen/2012/0501-600/514-12_28B_29,templateId=raw,property=publicationFile.pdf/514-12%28B%29.pdf

Förstner, Konrad U., Gregor Hagedorn, Claudia Koltzenburg, M Fabiana Kubke and Daniel Mietchen (2011). Collaborative platforms for streamlining workflows in Open Science. Open Knowledge Conference OKCon2011, Berlin, 30 June /1 July 2011, http://sunsite.informatik.rwth-aachen.de/Publications/CEUR-WS/Vol-739/paper_8.pdf

Guespin-Michel, Janine. Was für eine Wissenschaft für welche Demokratie? transform! 10-2012, 101-109.

Herb, Ulrich (Hrsg.). (2012). Open Initiatives: Offenheit in der digitalen Welt und Wissenschaft. Saarbrücken, Germany: universaar. Open Access: http://universaar.uni-saarland.de/monographien/volltexte/2012/87/

Impact Factor. Wikipedia. Version vom 20. Oktober 2012, 14:44 Uhr, http://de.wikipedia.org/w/index.php?title=Impact_Factor&oldid=109538576

Impact Factor problems, https://www.zotero.org/groups/impact_factor_problems/items

International Mathematical Union/Joint Committee on Quantitative Assessment of Research Citation Statistics in cooperation with the International Council of Industrial and Applied Mathematics (ICIAM) and the Institute of Mathematical Statistics (IMS). Citation Statistics. 12 June 2008, http://www.mathunion.org/fileadmin/IMU/Report/CitationStatistics.pdf

Kubke, Fabiana. RT @maiasz: my granddad quoted in NS today: »statistics are like bikinis, what they reveal is suggestive but what they conceal is vital.« plus comments, 17 February 2011, http://ffpaqiang.appspot.com/e/36aea8dc-457b-1052-0253-d99a83131634/

Mietchen, Daniel, Gregor Hagedorn, Konrad Förstner, M Fabiana Kubke, Claudia Koltzenburg, Mark Hahnel, and Lyubomir Penev (2011). Wikis in scholarly publishing, http://precedings.nature.com/documents/5891/version/1

Neylon, Cameron. It’s not information overload, nor is it filter failure: It’s a discovery deficit, cameronneylon.net, 8 July 2010, http://cameronneylon.net/blog/it's-not-information-overload-nor-is-it-filter-failure-it's-a-discovery-deficit/

Open Access. Wikipedia. Version vom 11. August 2012 um 15:44 Uhr, http://de.wikipedia.org/w/index.php?title=Open_Access&oldid=106677715.

Pampel, Heinz. Bundesrat: Open Access fördert Leistungsfähigkeit und Innovation: http://wisspub.net/2012/10/13/bundesrat-open-access-fordert-leistungsfahigkeit-und-innovation/

Priem, Jason. [Co-author's comment in the discussion on altmetrics: a manifesto], posted 19 June 2011, http://altmetrics.org/manifesto/#comment-592

Rabow, Hampus. The New Research and Innovation Bill From the Swedish Government – A Comment. Sciecom Info – Nordic-Baltic Forum for Scientific Communication 2 (2012) http://www.sciecom.org/ojs/index.php/sciecominfo/article/view/5684

Radder, Hans. The Commodification of Academic Research. In: The Commodification of Academic Research. Science and the Modern University. Edited by Hans Radder. Pittsburgh: University of Pittsburgh Press, 2010, 1-23. Open access: http://www.upress.pitt.edu/htmlSourceFiles/pdfs/9780822943969exr.pdf

Salo, Dorothea. Battle of the Opens. scienceblogs.com/bookoftrogool. 15 March 2010, http://scientopia.org/blogs/bookoftrogool/2010/03/15/battle-of-the-opens/

Salo, Dorothea. Open Sesame (and other open movements). slideshare.net. June 2010, Slide 4, http://www.slideshare.net/cavlec/open-sesame-and-other-open-movements

Staute, Jörg. Das Ende der Unternehmenskultur. Firmenalltag im Turbokapitalismus. Frankfurt am Main: Campus, 1997. ISBN 3-593-35790-9

siehe auch http://hdl.handle.net/10760/18041

Anmerkungen

[Bearbeiten]
  1. Impact Factor problems, https://www.zotero.org/groups/impact_factor_problems/items, mit Dank an impactstory.org – Als Beispielpositionen aus verschiedenen Fachgebieten nenne ich hier: „Research usually has multiple goals and it is therefore reasonable that its value must be judged by multiple criteria.“ International Mathematical Union/Joint Committee on Quantitative Assessment of Research Citation Statistics in cooperation with the International Council of Industrial and Applied Mathematics (ICIAM) and the Institute of Mathematical Statistics (IMS). Citation Statistics. 12 June 2008, http://www.mathunion.org/fileadmin/IMU/Report/CitationStatistics.pdf. „Whether using metrics for counting publications or citations, the question always remains: has the scholar asked an important question and investigated it in such a way that it has the potential to advance societal understanding and well-being?“ Nancy Adler, A.K.W. Harzig. When Knowledge Wins: Transcending the sense and nonsense of academic rankings. In: The Academy of Management Learning & Education, vol. 8, no. 1 (2008), pp. 72-95. Open access: http://www.harzing.com/download/wkw.pdf. „The suggestion in the government bill that Sweden should decrease the role of bibliometric performance indicators for all research areas in favour of a more qualitative peer review thus clearly represents a step backwards.“ Hampus Rabow. The New Research and Innovation Bill From the Swedish Government – A Comment. Sciecom Info – Nordic-Baltic Forum for Scientific Communication 2 (2012) http://www.sciecom.org/ojs/index.php/sciecominfo/article/view/5684. Nicht zuletzt ist nach wie vor das Verhalten von Autoren zu kritisieren, siehe Casadevall A, Fang FC. 2014. Causes for the persistence of impact factor mania. mBio 5(2):e00064-14. doi:10.1128/mBio.00064-14. Published 18 March 2014
  2. Im Mai 2012 gab es eine Podiumsdiskussion mit je einem Vertreter von Thomson Reuters/ Web of Science (James Testa) und einem des Verlagskonzerns Elsevier (David Tempest). Der Elsevier-Vertreter sagte, es sei so schwierig, eine Listung zu bekommen. Aus meiner Sicht gaben sie lediglich vor, dass es zu ihrer Routine gehöre, hart darum zu ringen, ab wann ein neues Journal von Elsevier bei WoS gelistet wird. Dabei funktioniert für diese beiden Akteure das System der nicht offengelegten Kriterien für oder gegen eine Listung wunderbar, sie können sich bestimmt gut einigen. Und warum sollten zwei der größten Nutznießer des JIF sich in die Karten schauen lassen, wenn sie nicht dazu gezwungen werden? Siehe Fifth Belgrade International Open Access Conference 2012. Day 2, Saturday, May 19th: International Database Publishers Open Forum http://boac.ceon.rs/index.php/BOAC/12/pages/view/presentations
  3. Jörg Staute. Das Ende der Unternehmenskultur. Firmenalltag im Turbokapitalismus. Frankfurt am Main: Campus, 1997. ISBN 3-593-35790-9
  4. Dorothea Salo. Battle of the Opens. scienceblogs.com/bookoftrogool. 15 March 2010, http://scientopia.org/blogs/bookoftrogool/2010/03/15/battle-of-the-opens/; Dorothea Salo. Open Sesame (and other open movements). slideshare.net. June 2010, Slide 4 http://www.slideshare.net/cavlec/open-sesame-and-other-open-movements
  5. Open Access. Wikipedia. Version vom 11. August 2012 um 15:44 Uhr, http://de.wikipedia.org/w/index.php?title=Open_Access&oldid=106677715. Einen aktuellen Überblick in deutscher Sprache gibt: Herb, U. (Hrsg.). (2012). Open Initiatives: Offenheit in der digitalen Welt und Wissenschaft. Saarbrücken, Germany: universaar. Open Access: http://universaar.uni-saarland.de/monographien/volltexte/2012/87/
  6. Den vorliegenden Artikel zum Beispiel hatte ich bei meiner Einsendung mit der Lizenz cc-by-sa-3.0 versehen. Das bedeutet, dass ich als Autor*n meinen Beitrag dem Forum Wissenschaft unter den Bedingungen angeboten habe, dass die Zeitschrift von mir ein nicht-exklusives Verwertungsrecht an diesem Artikel erhält: Andere (u.a. ich selbst) können den Text dieses Beitrags beliebig anderswo veröffentlichen, sofern sie meinen Namen nennen und meinen Beitrag zu gleichen Bedingungen weitergeben.
  7. Daniel Mietchen, Gregor Hagedorn, Konrad Förstner, M Fabiana Kubke, Claudia Koltzenburg, Mark Hahnel, and Lyubomir Penev (2011). Wikis in scholarly publishing, http://precedings.nature.com/documents/5891/version/1
  8. Deutscher Bundesrat. BR-Drs. 514/1/12: http://www.bundesrat.de/cln_330/SharedDocs/Drucksachen/2012/0501-600/514-12_28B_29,templateId=raw,property=publicationFile.pdf/514-12%28B%29.pdf; Heinz Pampel: Bundesrat: Open Access fördert Leistungsfähigkeit und Innovation: http://wisspub.net/2012/10/13/bundesrat-open-access-fordert-leistungsfahigkeit-und- innovation/
  9. Cameron Neylon. It’s not information overload, nor is it filter failure: It’s a discovery deficit, cameronneylon.net, 8 July 2010, http://cameronneylon.net/blog/it's-not-information-overload-nor-is-it-filter-failure-it's-a-discovery-deficit/
  10. Hans Radder. The Commodification of Academic Research. In: The Commodification of Academic Research. Science and the Modern University. Edited by Hans Radder. Pittsburgh: University of Pittsburgh Press, 2010, 1-23. Open access: http://www.upress.pitt.edu/htmlSourceFiles/pdfs/9780822943969exr.pdf
  11. Janine Guespin-Michel. Was für eine Wissenschaft für welche Demokratie? transform! 10-2012, 101-109. (Der Beitrag entstand im Forum „Konzeptionalisierung und demokratische Umsetzung einer anderen Form von Globalisierung“ beim Gegengipfel gehen den G 20 in Nizza im Oktober 2011.)
  12. Konrad U. Förstner, Gregor Hagedorn, Claudia Koltzenburg, M Fabiana Kubke and Daniel Mietchen (2011). Collaborative platforms for streamlining workflows in Open Science. Open Knowledge Conference OKCon2011, Berlin, 30 June /1 July 2011, http://sunsite.informatik.rwth-aachen.de/Publications/CEUR-WS/Vol-739/paper_8.pdf