Dies ist die Manuskript-Version eines Artikels, der erstmals im April 2015 in der De Gruyter-Zeitschrift ABI Technik (Vol. 35, Issue 1, Pages 58–61, DOI: 10.1515/abitech-2015-0012) publiziert wurde. Einen Kurzüberblick über die Konferenz gibt es auch in meinem Blogpost „Wissen teilen – APE2015“.
* * * * * * * * * * * * * * * * * * * *
Schon Leibniz hatte die Vision einer Bibliothek, die in drei bis vier Räumen dem Wissen seiner Zeit Platz bieten und in der man bei Bedarf Anleitungen zu allen denkbaren Dingen finden sollte. Auch dreihundert Jahre später teilen wir mit Leibniz noch immer die Vision, dass das gesamte Wissen dieser Welt erreichbar und verfügbar sein soll. Im Gegensatz zu Leibniz wollen wir es nicht in einer Bibliothek von drei bis vier Räumen sammeln, sondern hätten es gerne von möglichst überall zugänglich. Auch um diesem Ziel näherzukommen, fand in diesem Jahr wieder die APE, die Konferenz für Akademisches Publizieren in Europa, in der Berlin-Brandenburgischen Akademie der Wissenschaften statt – passenderweise im Leibniz-Saal.
An insgesamt drei Konferenztagen (einem Vor-Konferenz-Tag und zwei Haupttagen) trafen sich Branchenvertreter, die inzwischen nicht nur aus Europa, sondern aus der ganzen Welt anreisen, um die Herausforderungen und aktuellen Entwicklungen des akademischen Publizierens zu diskutieren. Unter dem Motto „Web25: The Road Ahead. Exploring the Future of Scholarly Communication“ feierte die Veranstaltung in diesem Jahr ihr zehnjähriges Jubiläum wie gewohnt mit Top-Rednern aus Politik, Wissenschaft und Wirtschaft. Dabei kamen erfahrene Verlagsprofis genauso zu Wort wie Start-Up-Gründer, Forscher, Bibliothekare, Forschungsförderer und Dienstleister.
Forschungsdaten
Martin Grötschel, Präsident der Berlin-Brandenburgischen Akademie, verwies in seiner Eröffnungsrede auf Leibniz‘ Vision und mutmaßte, dieser wäre wohl heutzutage ebenfalls sehr an den Möglichkeiten des elektronischen Publizierens interessiert. Mit seiner Forderung nach der größtmöglichen Offenheit von Wissenschaft nahm Grötschel die Essenz der kommenden Diskussionen bereits vorweg.
Schon auf der Vor-Konferenz hatte Michael Seadle vom Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin, klargestellt, dass ihn als Wissenschaftler die Schönheit einer gesetzten Seite nicht interessiere, solange er nur mit dem Inhalt arbeiten könne. Bei den anwesenden Diskutanten stieß er damit auf offene Ohren; Über Innovationen im Print-Bereich Bücher redet man bei der APE nicht mehr. Weitgehende Einigkeit herrschte auch bei Seadles Wunsch, Daten in einer Form bereitzustellen, die die Auffindbarkeit, Wiederverwendung und Reproduzierbarkeit von Forschungsergebnissen ermöglicht.
Christan Schulz, Zentrum für Zellbiologie der Universität Göttingen, und John R. Inglis, Cold Spring Harbor Laboratory, gaben den anwesenden Verlags- und Bibliotheksmitarbeitern die Aufgabe mit, Strukturen zu schaffen, in denen uninterpretierte Forschungsdaten veröffentlicht werden können, damit sie für die weitere wissenschaftliche Forschung nutzbar sind. Auch muss bei Wissenschaftlern und in Verlagen das Bewusstsein dafür geschaffen werden, dass es sich lohnt, Daten überhaupt zu veröffentlichen. Viele Wissenschaftler seien noch immer zögerlich mit der Freigabe ihrer Daten, stellte Seadle fest. Schulz wünschte sich außerdem mehr Möglichkeiten negative Forschungsergebnisse zu publizieren, da auch sie die Forschung voranbrächten.
Nutzbarkeit
Informationsflut
Die aktuellen Herausforderungen des wissenschaftlichen Verlegens liegen nicht nur, wie bisher, in der Verbreitung von Inhalten, sondern auch in der Nutzbarmachung der veröffentlichten Ergebnisse. Die Zahl der Neupublikationen wächst stetig. Die meisten publizierten Artikel werden jedoch nur selten gelesen; viele vermutlich nur einmal – vom Autor selbst, wie Jan Velterop, Berater und Verfechter von Open Science, etwas überspitzt feststellte. Zwar gäbe es den wissenschaftlichen (An-)Spruch „publish or perish“; „Read or rot“ sei hingegen unbekannt. In den meisten Fachgebieten gibt es zudem zu viele Publikationen, als dass sie alle überblickt werden könnten. Velterop warnte in diesem Zusammenhang vor dem Risiko von „lamp post research“, vor Forschung, die sich nur auf Publikationen bezieht, die sichtbar sind, statt relevant. Die Erschließung der vorhandenen Daten und Informationen ist deshalb dringend notwendig.
Einen Weg durch das Informationsdickicht bietet Wissenschaftlern beispielsweise das Start-Up ForeCite. Der Dienst identifiziert durch einen Algorithmus die wichtigsten Quellen für eine Publikation und schlägt den Wissenschaftlern entsprechende Zitate und Quellenangaben vor. Dieser Service könnte auch für Gutachter gewinnbringend eingesetzt werden und bietet – wenn die Datenbank mit ausreichend Material gefüllt ist – einen erheblichen Zeitgewinn für Wissenschaftler bestimmter Fachrichtungen.
Um der Informationsflut Herr zu werden, könnte man auch das eigentliche Wissen einer Publikation durch Textmining filtern, ohne dass der ganze Text verfügbar sein muss. Dieser Idee, sowie der Erschließung und Aufbereitung von Informationen, die in Grafiken und Abbildungen vorhanden ist, widmet sich Lazarus, ein Projekt der Universität Manchester.
Semantische Erschließung
Die Möglichkeiten der semantischen Verknüpfung und die dadurch entstehende Vernetzung von Informationen wurden von Phil Archer von W3C, Alexander Wade von Microsoft und Hans Uszkoreit, Professor für Computerlinguistik an der Universität des Saarlandes, eindrucksvoll aufgezeigt.
Archer gab eine verständliche Einführung in das Internet als „Web of connected things“, in dem Informationen miteinander in Beziehung gesetzt werden. Metadaten aus verschiedenen Quellen hätten bisher jedoch wenig oder gar nichts gemeinsam. Inhalte seien fast ausschließlich auf Menschen ausgelegt, was es den Maschinen – und damit der Auffindbarkeit – sehr schwer mache, so Archer. Wenn Open Data funktionieren soll, benötigen wir einheitliche, eindeutige semantische Bezeichnungen.
Auch Alexander Wade zeigte die scheinbar unbegrenzten Möglichkeiten, die durch Verknüpfung von Inhalten entstehen. Aktuell sind Dokumente im Internet jedoch meist ein „Sack voller Wörter“ (Wade), bei dem höchstens einzelne Webseite miteinander verlinkt sind. Wade gab auch praxisnahe Hinweise, wie man Crawler dazu bringt, die wichtigen Inhalte einer Website zu erfassen.
Hans Uszkoreit führte die Möglichkeiten, die die semantische Verknüpfung von Daten bietet, am Beispiel des Knowledge Graph und Wikipedia anschaulich vor. Das Rennen um strukturierte Daten sei in vollem Gange, erklärte er. Es sei unmöglich, Wissen zu besitzen: auch die Urheber von Texte besäßen nicht die Rechte an den darin enthaltenen Fakten. Die Ansammlung von strukturiertem Wissen sei eine der großen Herausforderungen unserer Zeit.
Open Access
Die Bedeutung und Verbreitung von Open Access steigt weiterhin weltweit, wie Wim van der Stelt, Springer, in seiner Keynote vor Augen führte. Er selbst ist überzeugt, dass Open Access zu dem wichtigsten Modell des wissenschaftlichen Publizierens werden wird. Peter M. Berkery von der Association of American University Presses stellte fest: „Open Access ist ein Ziel und nicht ein Geschäftsmodell“. Noch einen Schritt weiter ging Jan Velterop, der betonte, dass Open Access eben nicht das Ziel, sondern lediglich das Mittel sei, um das eigentliche Ziel, die bestmögliche Verbreitung von Wissen, zu erreichen.
Politisch
Das scheint die Europäische Union ähnlich zu sehen: Celina Ramjoué legte die politische Bedeutung von Open Access und Open Science dar und stellte die neubesetzte Kommission für „Digitale Wirtschaft und Gesellschaft“ vor. Sie betonte, dass Open Science das Ziel der Europäischen Union sei, um Demokratisierung und Transparenz von Wissenschaft zu erreichen. Diese Offenheit führe zu einer robusteren, erfolgreicheren Wissenschaft, die maximalen gesellschaftlichen Nutzen brächte. Ramjoué berichtete von einem Pilotprojekt zu offenen Forschungsdaten, das im Rahmen von Horizon 2020 mit beachtlicher Beteiligung gestartet sei.
Über die Situation in den USA informierte Frederick Dylla vom amerikanischen Insitut für Physik. In den USA seien „Public Access“ und der damit verbundene Rückfluss von Forschungsergebnissen in die Gesellschaft zurzeit ein brisantes politisches Thema. Auch die Publikation von Forschungsdaten erachtete Dylla in diesem Zusammenhang als wichtig. Jedoch hat bisher erst ein US-amerikanischer Forschungsförderer Richtlinien für die Publikation von Daten. Er wies darauf hin, dass der freie Zugang zu Forschungsergebnissen und -daten nicht bedeute, dass der Prozess des Publizierens frei von Kosten sei. Die unbeantwortete, aber viel diskutierte Frage bleibe auch in den USA: Wer zahlt für was?
Rechtlich
Diese Frage klärte Robert Kiley – zumindest für den Wellcome Trust. Er stellte klar, dass die durch den Wellcome Trust geförderten Forschungsergebnisse inzwischen Open Access publiziert werden müssen. Das dabei bevorzugte Lizenzmodell sei CC BY, eine der freiesten Lizenzen, die es zurzeit gibt. Nur dadurch, so Kiley, gebe es die größtmögliche Reichweite und Nutzungsmöglichkeit von Forschung. Es sei im Interesse des Wellcome Trust, dass wissenschaftliche Inhalte an so vielen Stellen wie möglich auftauchen, weiter verbreitet und weiter verwendet werden. Das gelinge am besten mit CC BY, sagte Kiley.
Als Gegenpart zu Kiley hatte Christian Sprang, Justiziar des Börsenvereins, drei Kritiker der CC-BY-Lizenz eingeladen: Albrecht Hauff vom Georg Thieme Verlag argumentierte gegen CC BY aus Sicht des traditionellen Verlegers, Martin Schaefer, Boehmert & Boehmert, vertrat die Position des Autors und Carlo Scollo Lavizzari, Lenz & Caemmerer, widmete sich den juristischen Aspekten. Für sie alle stand das Risiko einer möglichen Monetarisierung durch Dritte im Vordergrund. Die Entscheidung über die jeweilige Lizenz solle beim Autor liegen. Sie warnten außerdem davor, dass die Autoren durch CC BY die Kontrolle über ihre Inhalte verlören.
Schade, dass die Diskussion dieser gegensätzlichen Positionen aus Zeitgründen entfiel.
Qualitätssicherung
Peer Review
Kent Anderson, Science (AAAS), warf einen Blick auf eine der Kernkompetenzen des wissenschaftlichen Publizierens: das Begutachtungsverfahren (Peer Review). Er sprach sich dafür aus, das Verfahren nicht als reine Zugabe zu sehen, sondern es als essentiell für das akademische System zu begreifen. Gutachten sollten sicherstellen, dass Publikationen entweder das erste, das wichtigste oder das letzte Ergebnis zu einem wissenschaftlichen Problem lieferten. Wie gut etwas sei, bleibe die große Frage beim Publizieren wissenschaftlicher Arbeiten. Daher sei es wichtig, Peer Review als System der Qualitätssicherung ernst zu nehmen.
Bernhard Sabel, Institut für Medizinische Psychologie Magdeburg, und Bernd Pulverer, EMBO Journal, sahen ebenfalls erhebliches Optimierungspotential bei den aktuellen Peer-Review-Verfahren. Wichtig sei, so Pulverer, dass Herausgeber und Verlage ihren Gutachtern Qualitätsstandards näher brächten. Wenn das Peer-Review-Verfahren verbessert würde, leiste das, laut Sabel, einen Beitrag zum wissenschaftlichen Fortschritt.
Reproduzierbarkeit
Ein großes Problem in der Wissenschaft ist, laut Pulverer, auch die Nicht-Reproduzierbarkeit von veröffentlichten Forschungsdaten. Georg Feulner vom Potsdam-Institut für Klimafolgenforschung berichtete anschaulich von den Schwierigkeiten der Reproduzierbarkeit von publizierter Forschung in der Geowissenschaft. Die besondere Herausforderungen der Geowissenschaft ist das Fehlen eines Vergleichsobjekts und dass die Ergebnisse schwer zu skalieren und aufgrund von Umwelteinflüssen schwer zu reproduzieren seien.
Die Nicht-Reproduzierbarkeit von Forschungsdaten kann auch an der mangelhaften Dokumentation der Versuche liegen. Die Visualisierung von Experimenten kann hier Abhilfe schaffen. Sie macht Forschung transparenter und sorgt dafür, dass die Resultate besser wieder- und weiterverwendet werden können. Eine mögliche Plattform dafür ist JoVE, das „journal of visualised experiments“.
Kommunikation
Wissenschaftskommunikation
Wissenschaftler sollten das Universum erklären und dieses Wissen mit der Welt teilen. Wie man allerdings die „interessierte Öffentlichkeit“ erreicht und abstrakte Forschungsergebnisse als Wissen in die Gesellschaft zurückfließen lässt, ist nicht nur für Wissenschaftler eine Herausforderung.
Dieser Herausforderung widmet sich beispielsweise das neue Projekt Incend. Die Plattform bietet Wissenschaftlern die Möglichkeit, ihre Themen und Ergebnisse anschaulich darzustellen, Zusatzmaterial bereitzustellen und journalistische Berichte über ihre Forschung zu sammeln.Der Optimierung der Reichweite von Wissenschaft widmet sich auch KUDOS. Das junge Unternehmen wurde bereits im letzten Jahr auf der APE vorgestellt und konnte nun von ersten Erfolgen aus der Testphase berichten. KUDOS unterstützt Wissenschaftler dabei, ihre Forschungsergebnisse verständlich zu erklären und attraktiv aufzubereiten.
Miteinander
Auch die Kommunikation zwischen verschiedenen Beteiligten des wissenschaftlichen Publizierens kann noch verbessert werden. Schulz verwies auf das Optimierungspotential bei der Kommunikation zwischen Bibliothekaren und Wissenschaftlern – zum beidseitigen Nutzen. Ursula Stanek, Staatsbibliothek zu Berlin, wünscht sich von Verlagen mehr Verständnis für die Situation der Bibliotheken. Sie rief den Verlagen ins Gedächtnis, dass Bibliotheken ihre Partner seien statt ihre Feinde. Verlage sollten realistisch, flexibel und offen in Bezug auf ihre Lizenzmodelle und Konditionen sein.
Infrastruktur
Die neuen Formen des Publizierens brachten neue bürokratische Hürden – für alle Beteiligten. In einer extra Session widmete sich die APE den Herausforderungen bei der Abwicklung von Publikationsgebühren, den sogenannten Article Processing Charges (APC). In den Vorträgen von Richard Wynne (Aries Systems Corporation), Jake Kelleher (Copyright Clearance Center), Veronika Spinka (Springer) und Dirk Pieper (Universitätsbibliothek Bielefeld) wurde deutlich, wie komplex die Infrastruktur geworden ist. Da die Zahl der Open-Access-Publikationen weiter wachsen wird, sei es wichtig, auf die Skalierbarkeit der Workflows zu achten, betonte Wynne. Die Bandbreite von Zahlungsmodellen und Lizenzmöglichkeiten wird zunehmend ein Problem für Institutionen und Verlage werden, prophezeit Kelleher. Da alle Beteiligten unterschiedliche Anforderungen an das System und die Metadaten stellen, müssen Standards geschaffen werden, die den administrativen Aufwand vereinfachen, denn, so Ralf Schimmer von der Max Planck Digital Library, ineffiziente und teure Infrastrukturen seien nicht tolerierbar.
Fazit
Die Teilnehmer der APE 2015 waren wieder so bunt gemischt wie das Programm: Bibliothekare, Wissenschaftler, Mitarbeiter großer und mittelständischer Wissenschaftsverlage, internationale Forschungsförderer, amerikanische Universitätsverlage, Vertreter aus der europäischen Politik, internationale Dienstleister, Journalisten. Diese kompetente Mischung ermöglichte den Teilnehmern der APE wieder einen Blick über den eigenen Tellerrand zu werfen. Die Konferenz zeigte die aktuellen Herausforderungen und Entwicklungen auf sowie neue Ideen, die die Branche beflügeln könnten.
Deutlich wurde, wie Informationen zukünftig verknüpft werden müssen, um auffindbar und sichtbar zu sein und um größtmöglichen Nutzen zu bringen. Bei der Bereitstellung von Metadaten hat die Branche wohl noch einige Hausaufgaben zu erledigen, ebenso wie bei der Optimierung (nicht mehr ganz so) neuer Arbeitsabläufe. Doch die Anstrengungen sind der Mühe wert: Wer das Internet durch offene, maschinenlesbare Daten und durch aktive Verbreitung seiner Forschungsergebnisse effizienter nutzt, verschafft sich selbst bzw. seinen Autoren mehr Sichtbarkeit und damit einen echten Vorteil.
Leibniz‘ Vision, das Wissen dieser Welt in einer großen Bibliothek zu sammeln, hat sich gewandelt zur Vision von Open Science: das Wissen dieser Welt überall frei verfügbar und nutzbar zu haben. Bis zur nächsten APE ist ein weiteres Jahr Zeit, um diesem Ideal näher zu kommen.