Tools & Materialien
Diese Seite gibt einen Überblick zu Tools und Materialien, die an bayerischen Einrichtungen entwickelt wurden und/oder zur Verfügung gestellt werden.
Als Informationsportal der Universität der Bundeswehr München dient AtheneForschung der Dokumentation der Publikationen und Forschungsdaten der Universitätsangehörigen.
Collections@UBT, das digitale Sammlungsmanagementsystem der Universität Bayreuth, erlaubt die Bereitstellung audiovisueller und multimedialer Inhalte für Forschung und Lehre.
Die Universität Bayreuth ist bestrebt, das Wirken von Privatpersonen, Vereinen und sonstigen juristischen Personen, die mit der Universität in engem Zusammenhang stehen, dauerhaft zu sichern und die Zeugnisse ihres Wirkens einer Nutzung zugänglich zu machen. Diese können bereits zu Lebzeiten (Vorlass) übergeben werden oder gelangen über die Nachkommen, Erben o. ä. (Nachlass) an die Universität. Der Service Collections@UBT bietet die Möglichkeit der Datenübernahme aus Vor- und Nachlässen als digitale Sammlungen und digitales Forschungsmaterial an.
- Informationen zu Collections@UBT
Mitglieder des Projektes eHumanities – interdisziplinär haben an der Publikation mitgearbeitet und insbesondere die Beispiele zur Geo-Linguistik (anhand des VerbaAlpina-Projektes) für die multidisziplinären Empfehlungen beigetragen.
Die Vorlage für DMP-Leitfäden bietet eine gemeinsame Stuktur für DMP-Leitfäden. Diese soll die Erstellung von DMPs über verschiedene Disziplinen hinweg, die Bereitstellung von Best Practices und Konsequenzen für einige wichtige Datenmanagementthemen erleichtern.
Speichersystem für sehr große Datenmengen aus Simulationen oder Big Data-Anwendungen, für Münchner Nutzende sowie Nutzende der LRZ High Performance Computing Systeme.
Der Best Practice Guide wurde konzipiert, um eine strukturierte und normierte Beschreibung zu unterstützen. Die aktuelle Version des Leitfadens bezieht sich auf das DataCite Metadaten Schema (Version 4.4.) und wird auf Zenodo bereitgestellt.
Er kann einfach an die Bedürfnisse anderer Einrichtungen angepasst werden und viele der Empfehlungen sind allgemein gehalten.
Bayer, Christiane, Frech, Andreas, Gabriel, Vanessa, Kümmet, Sonja, Lücke, Stephan, Munke, Johannes, Putnings, Markus, Rohrwild, Jürgen, Schulz, Julian, Spenger, Martin, & Weber, Tobias. (2022). DataCite Best Practice Guide (Version 2.0). Zenodo. DOI: 10.5381/zenodo.7040047.
Veröffentlicht in Korpus und Text (KiT) beschreibt dieser Aufsatz den Entstehungsprozess hin zur ersten Version des veröffentlichten DataCite Best Practice Guide, erörtert die Gründe für seine Erarbeitung, stellt wesentliche Merkmale des Leitfadens vor und den potenziellen Mehrwert durch seine künftige Anwendung dar.
Kümmet, Sonja et al. (2020). Standardisierung eines Standards: Warum und wie ein Best-Practice-Guide für das Metadatenschema DataCite entstand, Version 1 (20.01.2020, 13:49). In: Korpus im Text, Serie A, 42800. URL: http://www.kit.gwi.uni-muenchen.de/?p=42800&v=1.
Kümmet, Sonja et al. (2020). Standardizing a Standard: Why and how a Best Practice Guide for the DataCite Metadata Schema was created, Version 1 (20.01.2020, 13:47). In: Korpus im Text, Serie A, 51272. DOI: 10.24344/kit_post_51272_1.
Mit dem DataCite Metadaten Generator steht ein praktisches Open Source-Tool zur Verfügung, mit dem bequem DataCite-konforme XML-Dateien erzeugt werden können. Dieser Generator wurde im Projekt angepasst und um Hilfstexte erweitert, um Nutzende beim Ausfüllen der Felder mit wenig intuitiven Feldbezeichungen zu unterstützen. Der erweiterte Generator ist auch über GitHub zugänglich. Beispiele im XML-Format können über den GitHub-Account der Universitätsbibliothek der LMU eingesehen werden.
Das Plugin exportiert Metadaten via OAI-PMH. Es basiert auf dem DataCite Metadaten Schema 4.1.
Die folgenden Datenmanagementpläne sind nun über RDMO-GitHub frei verfügbar:
- EU Horizon 2020 Anträge
- DFG Anträge:
- Chemie
- Editionswissenschaften
- Fachbereich „Alte Kulturen“ (Archäologie, Alte Geschichte, Ur- und Frühgeschichte, Klassische Philologie, Altertumswissenschaften)
- Sozial- und Kulturanthropologie, Außereuropäische Kulturen, Judaistik und Religionswissenschaft
Die Vorlagen wurden einrichtungsunabhängig gestaltet, wichtige einrichtungsspezifische Informationen sollten aber unbedingt ergänzt werden. Dies kann einfach über „Find & Replace” entsprechend der Anleitung in der Dokumentation geschehen.
Die vom Digital Curation Center (DCC) erarbeiteten 14 DCC-Themes beschreiben Thematiken, die in jedem Datenmanagementplan abgedeckt werden sollten. Hierzu gehören unter anderem die Daten- und Dateiformate, die Langzeitverfügbarhaltung der Daten oder die Frage nach den Rechten am Geistigen Eigentum. Entsprechend sollte jedes DMP-Werkzeug Hilfestellungen haben, die diese Aspekte behandeln. Die DCC-Themes werden standardmäßig von DMPOnline und von DMProadmap verwendet, um allgemeine, nicht Fragebogen-spezifische Informationen bereitzustellen, die einfach in neue Vorlagen integriert werden können.
Das Projekt eHumanities – interdisziplinär erarbeitete im Rahmen des Arbeitspaketes „Transferierbarer Datenmanagementplan“ deutsch- und englischsprachige Hilfetexte entsprechend der DCC-Themes, die so beispielsweise direkt in DMProadmap verwendet werden können. Der fachliche Fokus liegt hierbei auf den (digitalen) Geisteswissenschaften.
Die Hilfetexte wurden in allgemeine und fachspezifische Informationen aufgeteilt, da dies ein einfaches Zusammenstellen und Kombinieren der benötigten Informationen ermöglicht. Für einige DCC-Themes gibt es keine eigenen fachspezifischen Texte, da es keine sinnvolle Aufteilung von allgemeinen und spezifischen Hilfen gibt. Dies ist etwa bei den Texten zur Budgetplanung und zur Rollenverteilung der Fall. Bislang wurden die Domänen-spezifischen Texte in vier grobe Kategorien eingeteilt:
- Geschichte, Altertumswissenschaften und Kunstgeschichte
- Sprach- und Literaturwissenschaften
- Sozialwissenschaften
- Erziehungswissenschaften und Psychologie
Mit Blick auf die stetig wachsende Zahl von Unterstützungsangeboten und Richtlinien für das Forschungsdatenmanagement können die gesammelten Informationen keinen Anspruch auf Vollständigkeit erheben.
Hilfetexte nach den DCC-Themes zum Download:
Das Digital Humanities Virtual Laboratory (DHVLab) ist eine virtuelle, modulare und Cloud-basierte Infrastruktur für Lehre und Forschung. Es wurde in den Jahren 2016-2018 an der Ludwig-Maximilians-Universität München (LMU) von der IT-Gruppe Geisteswissenschaften entwickelt und kommt seitdem in verschiedenen Kontexten zum Einsatz. Die Idee entstand in digital gestützten Lehrveranstaltungen, die auf eine gemeinsame Infrastruktur und Software-Basis angewiesen waren, jedoch unter disparaten Umgebungen auf den Rechnern der einzelnen Studierenden litten. Das DHVLab eignet sich in besonderer Weise für Lehrveranstaltungen und Projekte mit anspruchsvollen digitalen Inhalten wie Korpora, (Bild-)Datenbanken, XML und bietet eine niederschwellige Lösung für Lehrende und Forschende, die eine zentrale Datenbank-, Repositoriums- und Entwicklungsumgebung benötigen. Mit dem DHVLab wird damit eine digitale Infrastruktur zur Verfügung gestellt, die für die Vermittlung grundlegender Datenkompetenzen (Data Literacy) eingesetzt werden kann.
Der Digital Skills HUB an der Friedrich-Alexander-Universität Erlangen-Nürnberg bietet hybride Veranstaltungen zu ausgewählten Themen rund ums digitale Lernen und Lehren. Ein besonderer Fokus liegt auf praktischen Fragestellungen sowie der Vorstellung, Einführung und Vermittlung von Software-Werkzeugen.
Mit DO@UBT bietet die Universität Bayreuth ihren Angehörigen einen Server für Digitale Objekte, für die es kein geeignetes externes Repositorium gibt. Daten können darin gesichert und flexibel mit Metadaten beschrieben werden.
Edmond ist das Forschungsdatenrepositorium der Max-Planck-Gesellschaft und wird von der Max Planck Digital Library als zentraler Service betrieben.
Das Repositorium unterstützt ORCID iDs, fachliche Metadaten für Datensammlungen, die auch direkt mit den dazugehörigen wissenschaftlichen Publikationen verlinkt werden können, und die Reservierung von DOIs für (noch) unveröffentlichte Datensätze.
Die Vermittlung von grundlegenden und fachspezifischen Kenntnissen im Bereich Forschungsdatenmanagement (FDM) ist mittlerweile eine erwartete Komponente in größeren Forschungsprojekten, insbesondere in Graduiertenkollegs und Sonderforschungsbereichen der Deutschen Forschungsgemeinschaft. Diese Handreichung basiert auf Überlegungen an der Friedrich-Alexander-Universität Erlangen-Nürnberg, ein unterstützendes Portfolio für Schulungsangebote für Graduiertenkollegs aufzubauen. Das Vorgehen ist in erster Linie für Forschungsreferate, Drittmittelstellen und FDM-Beratungsstellen interessant, die Forschende beim Thema FDM-Vermittlung im Antragsprozess unterstützen möchten.
Krömer, Cora & Rohrwild, Jürgen. (2021). Erstellung eines Service-Portfolios zur FDM-Vermittlung in der Graduiertenausbildung (Version 1). Zenodo. DOI: 10.5281/zenodo.5572331.
Zenodo ist ein großes europäisches Repositorium, das von der europäischen Organisation für Kernforschung CERN betrieben wird und im Rahmen des OpenAIRE-Programms der Europäischen Union konzipiert wurde. Zenodo dient als Repositorium für elektronische Dokumente aller Art. Neben Forschungsdaten können hier zum Beispiel auch Vortragsfolien, Software-Code und Dokumentation, Aufsätze oder Projektberichte abgelegt werden. Alle archivierten oder publizierten Dokumente erhalten einen DOI.
Grundsätzlich beschränkt Zenodo die Größe von Datensätzen auf 50 GB und die Nutzung ist bis zu dieser Größe kostenlos. Bei größeren Dateien bietet es sich an, direkt bei Zenodo anzufragen. Daten können unter verschiedenen Lizenzen publiziert oder archiviert werden.
Die FAU Zenodo Community wird vom Referat Open Access der Universitätsbibliothek Erlangen-Nürnberg moderiert. Mitglieder der Friedrich-Alexander Universität Erlangen-Nürnberg können die Community für die Veröffentlichung ihrer Daten nutzen.
FAUbox ist ein nicht kommerzieller Cloud-Speicherdienst für Forschung, Studium und Lehre. Mitarbeitende und Studierende der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU), der HAW Ansbach, der Hochschule Aschaffenburg, der HAW Coburg, der TH Ingolstadt, der TH Nürnberg und der KU Eichstätt-Ingolstadt können auf 50 GB kostenlosen Cloud-Speicher zurückgreifen. Das Projekt FAUbox wurde an der FAU vom Regionalen RechenZentrum Erlangen realisiert.
Überregionale wissenschaftliche Projekte und Arbeitsgruppen können sensible (personenbezogene) Forschungsdaten an der Friedrich-Alexander-Universität unter vollständiger Zugriffskontrolle sicher in die FAU-eigene Cloud laden.
- Mehr Informationen zur FAUbox
Forschungsgruppen der Friedrich-Alexander-Universität Erlangen-Nürnberg bekommen durch die FAUDataCloud freien Speicherplatz für Forschungsdaten als Grundversorgung zur Verfügung gestellt. Der Speicher ist unterschiedlicher Natur: zur reinen Archivierung (Bandspeicher), Netzlaufwerke (hot data) und Speicher für Datenbanken. Außerdem wird der Speicher eng an das HPC-System angebunden. In einer zweiten Phase werden zusätzliche Dienste auf die Speicher-Schicht aufgesetzt, z. B. spezielle Datenbanken, die Cloud-Version von WissKI, Forschungsumgebungen …
- Mehr Informationen zur FAUDataCloud
FD-Repo ist das Forschungsdatenrepositorium der Otto-Friedrich-Universität Bamberg. Angehörige der Universität können dort Forschungsdaten veröffentlichen und zur Nachnutzung bereitstellen. Die Datensätze erhalten einen DOI; fachliche Metadaten können vergeben werden. Die ORCID id wird unterstützt.
Im Rahmen des eHumanities – interdisziplinär-Projekts werden FDM-Handreichungen zu folgenden Themen erarbeitet und regelmäßig aktualisiert:
FDM an der Einrichtung
- Unterstützung an der Einrichtung
- Service-Matrix Schulungen
Antragshilfen
- DFG:
- FDM im DFG-Antrag
- Fachspezifisches FDM im DFG-Antrag
- FDM im SFB-Antrag
- FDM im GRK-Antrag
- EU
- FDM im Horizon-Europe-Antrag
- FDM im ERC-Antrag
Weitere Hilfen
- Repositorien
Die Handreichungen werden im GitLab des FAU Competence Center for Research Data and Information bereitgestellt.
Krömer, Cora & Rohrwild, Jürgen. (2022). FDM-Handreichungen (Version 1). URL: https://gitlab.rrze.fau.de/cdi/labs/literacy/proposal-self-service.
GitLab ist eine Webanwendung zur Versionsverwaltung von Softwareprojekten. Auch im Bereich textbasierter Forschungsdaten kann GitLab die Versionierung und Zusammenarbeit unterstützen. Einige Einrichtungen stellen zentrale Instanzen zur Verfügung.
- Informationen für Angehörige der Universität Augsburg
- Informationen für Angehörige der Otto-Friedrich-Universität Bamberg
- Informationen für Angehörige der Universität Bayreuth
- Informationen für Angehörige der Friedrich-Alexander-Universität Erlangen-Nürnberg
- GitLab des open bydata competence center
- Informationen für Angehörige des LRZ, der Ludwig-Maximilians-Universität München und der Technischen Universität München
- Informationen für Angehörige der Universität Regensburg
Das Rechenzentrum der Universität Würzburg betreibt einen High Performance Computing Cluster und daneben ein Speichersystem mit 500 TB.
Das LRZ bietet verschiedene HPC-Systeme:
- SuperMUC-NG (Höchstleistungsrechner)
- Linux Cluster für Angehörige bayerischer Universitäten
- Machine Learning System
- Cloud-Computing für Angehörige Münchner Universitäten und SuperMUC-NG-Benutzer
Keeper ist ein kostenloser Datenspeicher für alle Max-Planck-Mitarbeiter*innen und Projektpartner*innen mit mehr als 1 TB Speicher pro Nutzenden für Forschungsdaten.
Mit der Speicherung der Daten in Keeper werden die Archivierungsvorschriften der Max-Planck-Gesellschaft erfüllt und die Regeln zur Sicherung „guter wissenschaftlicher Praxis“ eingehalten.
An der LMU verfolgen die Universitätsbibliothek (UB) und die IT-Gruppe Geisteswissenschaften (ITG) das Ziel, Wissen für Wissenschaft und Gesellschaft über die üblichen Lebenszyklen von Projekten, Datenformaten und Software hinaus zugänglich und nutzbar zu machen. Aus diesem Grund bilden beide Einrichtungen ein Zentrum für Forschungsdatenmanagement (FDM) für die digitalen Geisteswissenschaften an der LMU. Mit dem vorliegenden Leitfaden möchte das FDM-Zentrum den Forschenden eine Orientierung für die Archivierung und nachhaltige Veröffentlichung von Forschungsdaten an die Hand geben. Damit soll eine langfristige Bewahrung der Forschungsdaten sichergestellt werden, um Forschungsergebnisse nachvollziehbar und überprüfbar zu gestalten.
IT-Gruppe Geisteswissenschaften & Universitätsbibliothek der LMU München (Hrsg.). (26. September 2022). Leitfaden für den Umgang mit Forschungsdaten in den digitalen Geisteswissenschaften an der Ludwig-Maximilians-Universität München (LMU) [Version 1.1]. München. DOI: 10.5282/ubm/epub.93361.
Der Kurs stellt RDMO vor und beschreibt dessen wichtigste Funktionen. Der Kurs ist unter der CC BY 3.0 Lizenz nachnutzbar.
LRZ Sync+Share erlaubt es, Daten und Dokumente sicher und zuverlässig am Leibniz-Rechenzentrum zu speichern.
Mitarbeitenden und Studierende der Ludwig-Maximilians-Universität, der Technischen Universität München, der Hochschule München, der Universität Passau und der Bayerischen Akademie der Wissenschaften können 50 GB kostenlosen Cloud-Speicher nutzen. Externe Mitglieder von Forschungsprojekten können eingeladen werden.
Organisationsübergreifende, interdisziplinäre, wissenschaftliche Projekte und Arbeitsgruppen können Forschungsdaten unter vollständiger Zugriffskontrolle sicher in die LRZ-eigene Cloud laden.
- Mehr Informationen zum LRZ Sync+Share
- Informationen für Angehörige der Ludwig-Maximilians-Universität München
- Informationen für Angehörige der Universität Passau
- Informationen für Angehörige der Technischen Universität München
mediaTUM, das Repositorium der Technischen Universität München ermöglicht TUM-Angehörigen große Datenmengen, inklusive DOI-Vergabe, kostenfrei zu archivieren und zu veröffentlichen.
Windows- und Linux-Netzwerklaufwerke (CIFS / NFS) für Nutzende im Münchner Wissenschaftsnetz, je nach Konfiguration mit automatischem Backup.
Kollaborationssoftware (Dateiverwaltung, Versionierung, Wikis, Mikro-Blogs, Meilensteine, Fotoalben) für Angehörige der Universität Passau.
- Mehr Informationen zu Novell Vibe
Die Universitätsbibliothek Regensburg bietet auf der Regensburger E-Learning-Plattform G.R.I.P.S. einen englischsprachigen Selbstlernkurs zum Thema Forschungsdatenmanagement an: MANTRA Research Data Management Training.
Der Kurs wurde ursprünglich von der University of Edinburgh entwickelt und von der Universitätsbibliothek Regensburg an die Situation in Deutschland bzw. an der Universität Regensburg angepasst.
Er gliedert sich in acht voneinander unabhängige Module zu den Themen: Forschungsdaten erklärt, Datenmanagementpläne, Datenorganisation, Dateiformate und Transformation, Dokumentation, Metadaten, Zitation, Speicherung und Sicherheit, Datenschutz, Urheberrecht und Zugang, Datenpublikation, Langzeitarchivierung und Lizenzierung.
Der Kurs ist für jeden zugänglich. Eine Selbsteinschreibung in den Kurs ist für alle Angehörigen der Universität Regensburg mit einem RZ-Account möglich. Externe Interessierte können sich auch als Gast anmelden, leider sind jedoch aus technischen Gründen die Online-Übungen für Gäste nicht zugänglich. (Angehörige anderer Hochschulen und Forschungseinrichtungen können sich einen externen Account anlegen, sofern ihre Institution in dieser Liste aufgeführt ist.
Die Universitätsbibliothek der Ludwig-Maximilians-Universität München (LMU) stellt mit Open Data LMU eine Plattform für die Veröffentlichung von Forschungsdaten bereit.
Wissenschaftler*innen aller Fakultäten der LMU sowie von Institutionen, die mit der LMU kooperieren, sind eingeladen, ihre Forschungsdaten auf dieser Plattform abzulegen und zur Verfügung zu stellen.
- Informationen über den Zugang für Wissenschaftler*innen der LMU
Das Open Science Center der Ludwig-Maximilians-Universität München stellt auf OSF Materialien für Workshops zu Open Science unter CC BY-Lizenz bereit:
Das OstData-Forschungsdaten-Repositorium ermöglicht die Veröffentlichung von Forschungsdaten zur Region Ost-, Ostmittel- und Südosteuropa. Das Repositorium ist ein Service des Forschungsdatendienst OstData.
OstData veröffentlicht zahlreiche Handreichungen zu Aspekten des FDMs in der Ost-, Ostmittel- und Südosteuropaforschung auf Zenodo. Themen sind unter anderem:
- Forschungsdaten publikationsfähig aufbereiten
- Forschungsdaten in ihrer Granularität beschreiben
- Bewertung der inhaltlichen Qualität von Forschungsdatensätzen
- Forschungsdaten versionieren
- Beratungen zum Forschungsdatenmanagement dokumentieren
Zenodo ist ein großes europäisches Repositorium, das von der europäischen Organisation für Kernforschung CERN betrieben wird und im Rahmen des OpenAIRE-Programms der Europäischen Union konzipiert wurde. Zenodo dient als Repositorium für elektronische Dokumente aller Art. Neben Forschungsdaten können hier zum Beispiel auch Vortragsfolien, Software-Code und Dokumentation, Aufsätze oder Projektberichte abgelegt werden. Alle archivierten oder publizierten Dokumente erhalten einen DOI.
Grundsätzlich beschränkt Zenodo die Größe von Datensätzen auf 50 GB und die Nutzung ist bis zu dieser Größe kostenlos. Bei größeren Dateien bietet es sich an, direkt bei Zenodo anzufragen. Daten können entweder unter verschiedenen Lizenzen publiziert oder archiviert werden.
Die OstData-Zenodo-Community ist eine Sammlung des Forschungsdatendienstes OstData (Ost-, Ostmittel- und Südosteuropaforschung) für Handreichungen hinsichtlich des Forschungsdatenmanagements und Präsentationen des Dienstes.
Auf dem Publikationsserver der Universität Regensburg werden auch Forschungsdaten der Universitätsangehörigen veröffentlicht und gegebenenfalls mit dazugehörigen Publikationen verknüpft. DOIs können vergeben werden.
- Informationen zu Forschungsdaten auf dem Publikationsserver
RADAR ermöglicht es, Forschungsdaten von abgeschlossenen wissenschaftlichen Studien und Projekten zu publizieren und zu archivieren. Dies gilt fachübergreifend und bezieht sich insbesondere auf Daten, die die Grundlage von wissenschaftlichen Papers bilden und für die noch kein disziplinspezifisches Repositorium zur Verfügung steht.
- Informationen zur Nutzung von RADAR für Angehörige der Friedrich-Alexander-Universität Erlangen-Nürnberg
Mehrere bayerische Einrichtungen stellen für ihre Forschenden eine RDMO-Instanz (Research Data Management Organiser) zur Erstellung von Datenmanagementplänen bereit:
- RDMO@UBT stellt den Angehörigen der Universität Bayreuth eine lokale Instanz von RDMO zur Verfügung. (Mehr Informationen).
- Die RDMO-Instanz der Friedrich-Alexander-Universität Erlangen-Nürnberg wurde im Rahmen des Projekts eHumanities – interdisziplinär eingerichtet. In der zweiten Projektphase wird außerdem an einer Multisite-Instanz gearbeitet, um auch kleineren bayerischen Einrichtungen die Nutzung von RDMO zu ermöglichen.
- Auch die RDMO-Instanz der Ludwig-Maximilians-Universität München wurde im Rahmen des eHumanities – interdisziplinär-Projekts eingerichtet.
- Die Max Planck Digital Library betreibt für Wissenschaftler*innen der Max-Planck-Gesellschaft eine RDMO-Instanz.
Die Schnellstartanleitung richtet sich an alle, die RDMO zur Erstellung von Datenmanagementplänen nutzen wollen. Sie wurde mit Blick auf die RDMO-Instanz der LMU erstellt, sollte aber für die meisten RDMO-Instanzen hilfreich sein. In der LMU-Instanz kann aber auch ein eigener Account angelegt werden. Die Schnellstartanleitung basiert auf der von RDMO selbst bereitgestellten Anleitung.
Versionsverwaltung ist nicht nur für (Forschungs-)Software sinnvoll, sondern auch für viele Arten von Forschungsdaten. Das Rechenzentrum der Universität der Bundeswehr München betreibt dazu einen zentralen Subversion-Server.
Das Rechenzentrum der Universität der Bundeswehr (UniBw M) betreibt eine Instanz des Sync&Share-Dienstes TeamDrive und bietet den Dienst außer ihren eigenen Angehörigen auch der DFN-Wissenschaftscommunity und im Rahmen der Bayern-Cloud an.
Überregionale wissenschaftliche Projekte und Gruppen können sensible Forschungsdaten unter vollständiger Zugriffskontrolle und mit Zugriff auf Vorversionen sicher in die UniBw M-eigene Cloud laden.
- Informationen für Angehörige der Universität der Bundeswehr München
- Informationen für Angehörige der Universität Augsburg
- Informationen für Angehörige der Universität Bamberg
- Informationen für Angehörige der Universität Regensburg
- Informationen für Angehörige der Julius-Maximilians-Universität Würzburg
TUM Workbench: ein in enger Zusammenarbeit mit Forschenden der TUM entwickeltes, Open-Source-Tool für ein integriertes Forschungsdatenmanagement. Zum Funktionsumfang gehören u. a. Elektronische Laborbücher und Templates für Datenmanagementpläne.
Die ontologiebasierte virtuelle Forschungsumgebung WissKI dient dem flexiblen Management von objektbezogenen Forschungsdaten als Linked Data in den Digitalen Geisteswissenschaften, insbesondere im Bereich des Kulturellen Erbes. Während sich die Bedienung an Wikipedia anlehnt, werden Daten in WissKI mithilfe des CIDOC CRM strukturiert als Wissensgraph abgelegt. WissKI entstand im DFG-Projekt „WISSenschaftliche Kommunikations-Infrastruktur“ (2009-2016) an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) in Kooperation mit dem Germanischen Nationalmuseum. Seit dem Ende der Förderung wird es von der IT-Abteilung des Germanischen Nationalmuseums und externen Partnern weiterentwickelt.
Viele WissKI-Instanzen werden nur projektintern genutzt; es gibt jedoch einige öffentliche Beispiele:
- Das Projekt „Objekte im Netz“ entwickelte eine Erschließungs- und Digitalisierungsstrategie für die Sammlungen der FAU woraus einige Sammlungs-WissKIs entstehen.
- Der Objektkatalog des Germanischen Nationalmuseums basiert auf WissKI.
- Das Projekt „Erschließung der handschriftlichen Einträge in frühneuzeitlichen Schreibkalendern mittels eines Repertoriums (circa 1540 bis 1800)“ stellt die Daten in einer WissKI-Instanz zur Verfügung. Informationen zum Datenmodell finden sich in der Dokumentation.
- Projekt Semantics4Art&Architecture. Aufbau einer nachhaltigen Forschungsinfrastruktur für die ontologiebasierte Dokumentation und Erschließung von Kunst und Architektur (U. Heidelberg, Herder-Institut für historische Ostmitteleuropaforschung)
- Netzwerk WissKI
- WissKICommunity
- Veröffentlichung in Drupal
- Die FAU bündelt ihre WissKI-Instanzen auf der FAUWissKICloud, um die Forschenden beim Hosting und der Wartung zu entlasten.
Ziel der Workflows ist es, die Beratung im Bereich Forschungsdatenmanagement für die (digitalen) Geisteswissenschaften an der Ludwig-Maximilians-Universität München zu vereinheitlichen und zu regulieren. Folgende Bereiche werden dabei abgedeckt:
- Bereich 1 – Kontaktaufnahme mit Datenproduzierenden
- Bereich 2a – Antragstellung des DH-Vorhabens
- Bereich 2b – Umsetzung des DH-Vorhabens, FDM-spezifischer Anteil des DH-Vorhabens
- Bereich 3 – Veröffentlichung der Forschungsdaten
- Teilbereich – Metadatenanreicherung
Für jeden Abschnitt des Workflows stehen jeweils eine grafische Darstellung sowie eine ausführliche Prozessbeschreibung zur Verfügung. Die Prozessbeschreibung deckt den Anwendungsfall für die geisteswissenschaftlichen Fakultäten an der LMU ab, kann aber auch angepasst beziehungsweise erweitert werden und an anderen Einrichtungen beziehungsweise für weitere Disziplinen eingesetzt werden.
Servicestelle FDM-DH et al. (2021). Workflows für das Forschungsdatenmanagement (FDM) in den Digital Humanities an der LMU München (1.0). Zenodo. DOI: 10.5281/zenodo.5031602.
Das Repositorium ermöglicht es Angehörigen der Julius-Maximilians-Universität Würzburg, ihre Daten entsprechend der FAIR-Prinzipien zu veröffentlichen. WueData versieht alle Publikationen mit einem DOI und garantiert die langfristige Verfügbarkeit der Daten.
Auf dem YouTube-Kanal „Forschungsdatenmanagement Bayern“ stehen Videos zu folgenden Themen bereit: