Glossar
Anonymisierung
Durch Anonymisierung werden Personendaten so verändert, dass der Bezug zu der betroffenen Person definitiv aufgehoben wird oder nur noch mit unverhältnismässigem Aufwand wiederherstellbar ist. Dies unterscheidet die Anonymisierung von der Pseudonymisierung, bei der eine Re-Identifizierung von Personen möglich bleibt. Weitere Informationen auf unserer Homepage: Ethik und Datenschutz, Daten und Code publizieren.
Basiert auf: Swiss Personalized Health Network, Glossar | Cessda Data Management Expert Guide
Backup
Ein Backup ist eine Sicherheitskopie von Daten, die zu einem bestimmten Zeitpunkt erstellt wird, um Daten im Falle von Verlust oder Beschädigung wieder herstellen zu können. Ziel ist die langfristige Datensicherung (von spezifischen Versionen) der Daten. Empfohlen wird die 3-2-1 Regel, die besagt, dass jeweils drei Kopien der Daten auf zwei unterschiedlichen Datenträgern erstellt werden sollen, wobei eine Kopie an einem externen Standort gespeichert werden soll. Der Begriff ist von Synchronisierung zu unterscheiden.
Weitere Informationen: forschungsdaten.info | Synology-Blog
CARE-Prinzipien
Die CARE-Prinzipien (CARE steht für Collective Benefit, Authority to Control, Responsibility, Ethics) wurden von der Global Indigenous Data Alliance (GIDA) entwickelt. Sie beschreiben gute Praktiken für den Umgang mit Daten aus indigenen Gemeinschaften im Hinblick auf indigene Rechte und Interessen und ergänzen damit die FAIR-Prinzipen.
Quellen und weitere Informationen: CARE Principles (GIDA) | CARE Principles (ARDC)
Data Steward
Data Stewards sind Expert*innen für Forschungsdatenmanagement. Sie unterstützen Forschende beim nachhaltigen Umgang mit Forschungsdaten. Darüber hinaus arbeiten Data Stewards als Bindeglieder zwischen Forschenden und (Research) Software Engineers, IT und andern Infrastrukturen. Weitere Aufgaben umfassen Beratung, Schulung und Sensibilisierung für gute Praktiken des Forschungsdatenmanagements.
Basiert auf: https://forschungsdaten.info/praxis-kompakt/glossar/
Data Transfer and Use Agreement (DTUA)
Datentransfer- und Nutzungsvereinbarungen (engl. Data Transfer and Use Agreement, DTUA, DUA), sind Verträge, die den Austausch von Daten zwischen zwei Parteien regeln. Ein DTUA regelt die Offenlegung eines spezifischen Datensatzes, zulässige Verwendungszwecke und alle Datenschutz- und Sicherheitsanforderungen, die den Empfang und die Verarbeitung der Daten betreffen. Zu diesen Zwecken weisen DTUA den Empfängern der Daten entsprechende Verantwortlichkeiten zu.
Basiert auf: https://www.purdue.edu/business/sps/contractmgmt/DataTransferUseAgreement.html
Datenmanagementplan
Ein Datenmanagementplan (DMP) ist ein strukturiertes Dokument, in dem der Umgang mit Forschungsdaten in einem Projekt systematisch beschrieben wird. Es sollte Angaben enthalten, auf welche Art und mit welchen Hilfsmitteln (zum Beispiel Hard- und Software) Daten erhoben, bearbeitet, dokumentiert gespeichert, gesichert, gepflegt, archiviert und ggf. publiziert werden. Zudem dokumentiert der DMP auch die erforderlichen Ressourcen und Verantwortlichkeiten. Ein DMP wird im Idealfall schon in der Planungsphase eines Forschungsprojektes entworfen, sollte in dessen weiteren Verlauf aber regelmäßig aktualisiert und ergänzt werden. Der DMP ist somit ein Instrument der Arbeitsorganisation und Projektplanung, kann aber auch Dritten dabei helfen, die betreffenden Forschungsdaten zu interpretieren und nachzunutzen. Für konkrete Hilfestellung beim Schreiben eines DMP siehe unsere Webseite.
Basiert auf: Glossar, Leibniz Universität Hannover (uni-hannover.de)
Daten-Provenienz
Daten-Provenienz dokumentiert die Herkunft oder den Ursprung von Forschungsdaten, und die Prozesse, Methoden, Instrumente und Algorithmen, mit denen sie produziert wurden. Angaben zur Provenienz von Forschungsdaten sind entscheidend, um Transparenz/Reproduzierbarkeit der Forschung zu gewährleisten und so ihre Glaubwürdigkeit und das Vertrauen in sie zu stärken. Die betreffenden Informationen können in Readme-Dateien oder Metadaten festgehalten werden. Angaben zur Provenienz sind zentral bei der Umsetzung der FAIR-Data-Prinzipien.
Basiert auf: eResearch Alliance: Daten-Provenienz
Dokumentation
Dokumentation umfasst beschreibende Informationen zum Entstehungsprozess, zur Struktur und den Inhalten von Forschungsdaten. Im Forschungsdatenmanagement hat sie zum Ziel, Daten verständlich, überprüfbar und nachnutzbar zu machen – sowohl für die Personen selbst, welche die Daten erheben, wie auch für andere Personen ausserhalb des Projekts, in dem die Daten entstanden sind. Eine ausführliche Datendokumentation ist grundlegend für FAIR Data. Einfach umsetzbar ist die Dokumentation von Daten mit einer sogenannten ReadMe-Datei. Dies ist eine separate Textdatei mit kompakten und strukturierten Informationen zu den Daten. ReadMe-Vorlage auf unserer Webseite.
Weitere Informationen: forschungadaten.info, Datendokumentation | Glossar
Einwilligungserklärung
Eine Einwilligungserklärung (oder informierte Einwilligung) umfasst die Information der Teilnehmenden darüber, was mit ihren Daten im Rahmen eines Forschungsprojekts geplant ist, für welche Zwecke die Daten gesammelt und publiziert werden sollen, sowie die Zustimmung der Teilnehmenden. Die informierte Einwilligung bildet die Grundlage der Teilnahme an wissenschaftlichen Studien und einer eventuellen Nachnutzung der Daten. Sie ist somit die Basis einer Forschung, die rechtliche Bestimmungen und ethische Prinzipien umsetzt. Für weitere Informationen und Hilfestellung siehe unsere Webseite zu Ethik und Datenschutz.
Electronic lab notebooks
Electronic lab notebooks (ELN) und laboratory inventory management systems (LIMS) sind digitale Tools, die unter anderem die Laborarbeit erleichtern. ELN dienen der Speicherung und Aufzeichnung von unstrukturierten Daten, z.B. der Organisation von Protokollen, Notizen und Daten aus Experimenten. LIMS hingegen sind für strukturierte und sich wiederholende Daten vorgesehen, die bestimmten Mustern folgen, z.B. bei der Verfolgung von Proben aus genau definierten, wiederholten und routinemässigen Tests.
Basiert auf: https://www.scinote.net/blog/eln-vs-lims-how-to-choose/
FAIR Data
Der Begriff FAIR (Findable, Accessible, Interoperable und Reusable) Data wurde 2016 erstmals von der FORCE11-Community für ein nachhaltiges Forschungsdatenmanagement geprägt. Hauptziel der FAIR-Prinzipien ist eine optimale Aufbereitung der Forschungsdaten, die demnach sowohl für Menschen als auch Maschinen auffindbar, zugänglich, interoperabel und wiederverwendbar sein sollen.
Basiert auf: FDM-Glossar, Freie Universität Berlin (fu-berlin.de); Wilkinson, Mark, et al. 2016. „The FAIR Guiding Principles for Scientific Data Management and Stewardship“. Scientific Data 3 (1): 160018. https://doi.org/10.1038/sdata.2016.18.
Forschungsdaten
Als Forschungsdaten werden alle Daten bezeichnet, die im Zuge wissenschaftlichen Arbeitens entstehen oder genutzt werden. Sie bilden die Grundlage aktueller und potenziell zukünftiger wissenschaftlicher Erkenntnisse und werden in der wissenschaftlichen Gemeinschaft allgemein als notwendig für die Dokumentierung und Validierung von Forschungsergebnissen angesehen.
Es kann zwischen Primärdaten (Daten, die gezielt zur Beantwortung einer Fragestellung in der Forschung erhoben werden) und Sekundärdaten (Daten, die in einem anderen Kontext erhoben wurden und in der Forschung verwendet werden) unterschieden werden.
Metadaten sowie die Dokumentation der Datenerhebung und -verarbeitung innerhalb eines Forschungsprojektes sind essenziell für die (Nach-)Nutzbarkeit von Forschungsdaten (FAIR Data). Wenn Forschungsdaten unter offenen Lizenzen veröffentlicht werden, handelt es sich um Open Research Data.
Forschungsdatenmanagement
Forschungsdatenmanagement (FDM) umfasst alle Planungen und Maßnahmen, die sicherstellen, dass Forschungsdaten während ihres gesamten Lebenszyklus auffindbar, zugänglich, interoperabel und wiederverwendbar (FAIR) sind – von der Planung und Erhebung über die Analyse und Speicherung bis hin zur Weitergabe und langfristigen Archivierung. Dazu gehört unter anderem eine klare Benennung von Dateien, eine strukturierte Ordnerorganisation, aussagekräftige Metadaten und Dokumentation, sichere Speicherung sowie regelmäßige Backups. FDM hilft dabei, Datenverlust zu vermeiden, die Nachvollziehbarkeit oder Reproduzierbarkeit von Forschung zu gewährleisten und eine zukünftige Nachnutzung der Daten – sowohl durch die Forschenden selbst als auch durch andere – zu ermöglichen. Zudem ist FDM ein wichtiger Beitrag zur Umsetzung ethischer Leitlinien und Datenschutzbestimmungen.
Weitere Information: forschungsdaten.info
Forschungsdatenrepositorium
Ein Forschungsdatenrepositorium ist eine Online-Plattform, die der Veröffentlichung von Forschungsdaten dient. Im Sinne der Grundsätze von FAIR Data und Open Research Data sollten neben den Forschungsdaten auch Metadaten eingegeben und Dokumentation (z. B. ReadMe-File, Codebook, Protokoll) eingestellt werden, um die Daten besser auffindbar, verständlich und nachnutzbar zu machen. Um die Nachnutzung der Daten zu regeln, können Lizenzen vergeben werden. Der Zugriff auf sensible Daten (z.B. Daten mit Personenbezug) kann eingeschränkt und über einen Datennachnutzungsvertrag (Data Transfer and Use Agreement, DTUA) geregelt werden.
An der Universität Bern steht mit BORIS Portal ein Forschungsdatenrepositorium zur Verfügung. Für praktische Informationen zur Datenveröffentlichung siehe unsere Webseite.
Interoperabilität
Interoperabilität bezeichnet die Eigenschaft von Systemen, Anwendungen oder Daten, miteinander zu kommunizieren und Informationen nahtlos auszutauschen. Im Kontext von Forschungsdatenmanagement bedeutet dies, dass Daten in standardisierten, offenen Formaten und mit klaren Metadaten bereitgestellt werden, so dass sie von verschiedenen Plattformen und Tools genutzt werden können. Ziel der Interoperabilität ist es, den Austausch, die Nachnutzung und die Integration von Forschungsdaten über Disziplin- und Institutionsgrenzen hinweg zu erleichtern. Interoperabilität ist ein Kernaspekt der FAIR-Datenprinzipien.
Weitere Informationen: forschungsdaten.info
Künstliche Intelligenz
Künstliche Intelligenz (KI) beschreibt die Fähigkeit einer Maschine, menschliche Fähigkeiten wie Denken und Kreativität zu imitieren. Ein Beispiel für ein KI-Modell sind Large Language Models (LLMs), die auf menschliche Sprache reagieren und selbst Text generieren können, beispielsweise ChatGPT (OpenAI), Llama (Meta) oder Gemini (Google). Im Zusammenhang mit Forschungsdaten sollte berücksichtigt werden, dass die Prozessierung von vertraulichen Forschungsdaten mit KI aus datenschutzrechtlichen Gründen nur unter bestimmten Umständen möglich ist (z.B. Einwilligung bei Personendaten).
Quellen und weitere Informationen: Informationen des Europäischen Parlaments | Redhat: Was sind Large Language Models (LLM)? | UniBE Guidelines - Research on and with AI (2024)
Langzeitarchivierung
Langzeitarchivierung bedeutet die Sicherung von Daten und von deren Benutzbarkeit über mehrere Generationen von Hardware, Software und Dateiformaten hinweg.
Basiert auf: Universitätsbibliothek Bern, BerDA
Lizenzen für Daten
Eine Lizenz ist ein vertraglich vereinbartes Nutzungsrecht. Damit erlaubt der Rechteinhaber seinem Vertragspartner, ein Werk auf verschiedene Arten zu nutzen (z. B. zu kopieren, zu speichern oder digital zugänglich zu machen). Im Bereich von Forschungsdaten, an denen Urheberrechtsansprüche bestehen, werden in der Regel standardisierte Creative-Commons-Lizenzen bzw. -Instrumente empfohlen, insbesondere CC BY und CC0.
Basiert auf: https://forschungsdaten.info/praxis-kompakt/glossar / Creative Commons
Metadaten
Metadaten sind eine stark strukturierte, standardisierte Beschreibung von Objekten (einschließlich Daten). Sie bieten in komprimierter Form Informationen zu Inhalt, Struktur, technischen Eigenschaften, Nutzungsrechten und anderen Eigenschaften. Standardisierte Metadaten machen Informationen für Maschinen (z.B. Algorithmen, Suchmaschinen) auffindbar und nutzbar. Sie sind somit zentral bei der Umsetzung der FAIR-Data-Prinzipien.
Open (Research) Data
“Open Data” im umfassenden Sinn bezeichnet alle offen zugänglichen und nachnutzbaren Datenbestände. Im engeren Sinn wird der Begriff oft synonym zu «Open Government Data» (offene Verwaltungsdaten) und in Abgrenzung von «Open Research Data» (offene Forschungsdaten) verwendet. Daten sind offen, wenn sie mit so wenig rechtlichen und technischen Einschränkungen wie möglich zugänglich gemacht werden. Eine stark einschränkende Lizenzgebung oder Zugriffsbarrieren (z.B. Bezahl- oder Anmeldeschranke) kann dazu führen, dass Forschungsergebnisse nicht nachvollziehbar sind und die Nachnutzung der Daten erschwert oder unmöglich wird.
Basiert auf: https://opendatahandbook.org/guide/de/what-is-open-data/
Persistente Idenfikatoren (DOI u.a.)
Persistente Identifikatoren (PID) sind dauerhafte Kennungen, die einem digitalen Objekt zugeordnet sind. Im Gegensatz zu anderen Identifikatoren wie etwa URLs verweisen PID immer auf das Objekt selbst. Auf diese Weise ändert sich der Identifikator nicht, auch wenn sich der Standort des Objektes (in der Regel eine Webseite) ändert. So wird eine dauerhafte Nachweisbarkeit sichergestellt. Beispiele für PID sind Digital Object Identifier (DOI), Archival Resource Keys (ARKs), Handle.
Basiert auf: https://forschungsdaten.info / CODATA Research Data Management Terminology
Personendaten
Gemäss dem kantonalen Datenschutzgesetz (KDSG) gelten als Personendaten alle Angaben über eine bestimmte oder bestimmbare natürliche oder juristische Person. Personendaten können sowohl direkt identifizierende Angaben sein (z.B. Name, Adresse, AHV-Nr.), aber auch Informationen, die erst in Kombination mit anderen Informationen eine Person identifizieren können (z.B. Beruf, Wohnort). Für weitere Informationen und Hilfestellung siehe unsere Webseite zu Ethik und Datenschutz.
Basiert auf: Art. 2/3 Datenschutzgesetz Kanton Bern
Personendaten, besonders schützenswerte (sensible Personendaten)
Als besonders schützenswerte Personendaten gemäss kantonalem Datenschutzgesetz gelten Daten über religiöse, weltanschauliche, politische oder gewerkschaftliche Ansichten oder Tätigkeiten, Daten über die ethnische Herkunft, über die Gesundheit und die Intimsphäre, genetische Daten, biometrische Daten, Daten über Massnahmen der sozialen Hilfe oder des Kindes- und Erwachsenenschutzes sowie Daten über verwaltungs- und strafrechtliche Verfolgungen oder Sanktionen. Für diesen Datentyp gelten nochmals strengere Schutzauflagen.
In der Schweiz werden von Kanton zu Kanton zum Teil abweichende Bezeichnungen für diese Art von Daten gebraucht. Im Kanton Basel-Stadt etwa heisst dieser Datentyp «besondere Personendaten» (IDG, §3, Abs. 4).
Für weitere Informationen und Hilfestellung siehe unsere Webseite zu Ethik und Datenschutz.
Basiert auf: Art. 3 Datenschutzgesetz Kanton Bern / §3 Kanton Basel-Stadt, Datenschutzgesetz
Präregistrierung
Präregistrierung bedeutet, den Plan eines Forschungsprojekts vor oder zu Beginn des Projekts zu veröffentlichen. In Fachbereichen wie etwa der Psychologie wird das Verfahren eingesetzt, um das methodengeleitete Vorgehen zu stärken und die Qualität und Transparenz der Forschung zu erhöhen. So soll zweifelhafte wissenschaftliche Praxis (wie etwa die nachträgliche Anpassung der Forschungsfrage an die erzielten Resultate) vermieden werden.
Basiert auf: https://help.osf.io/article/145-preregistration
Pseudonymisierung
Durch Pseudonymisierung werden identifizierende Informationen über Personen entfernt bzw. durch ein Pseudonym ersetzt, wobei der benutzte Schlüssel zur Re-Identifikation noch aufbewahrt wird. Beispielsweise wird ein Name durch einen Zahlencode ersetzt, die Zuordnung von Zahlencode und Name (= Schlüssel) wird gesondert aufbewahrt. Pseudonymisierte Daten gelten weiterhin als Personendaten. Bei einer Anonymisierung werden hingegen alle identifizierenden Informationen unwiderruflich entfernt, eine Re-identifizierung von Personen wird dadurch unmöglich.
Basiert auf: Swiss Personalized Health Network, Glossar | Finnish Social Science Data Archive
Reproduzierbarkeit
Forschungsergebnisse sind reproduzierbar, wenn bei der Anwendung identischer Analyseverfahren auf dieselben Daten identische Ergebnisse erzeugt werden. Dies setzt voraus, dass die angewendeten Methoden und Prozeduren korrekt und präzise dokumentiert sind und alle Schritte des wissenschaftlichen Arbeitens dokumentiert werden. Reproduzierbare Ergebnisse ermöglichen Transparenz und Nachvollziehbarkeit. Im Unterschied dazu bedeutet Replizierbarkeit, dass die Ergebnisse der replizierten Studie mit neuen Daten und denselben oder anderen Methoden bestätigt werden können. Die Definitionen der Begriffe Reproduzierbarkeit und Replizierbarkeit können allerdings je nach Disziplin variieren.
Basiert auf: https://book.the-turing-way.org/reproducible-research/reproducible-research / Plesser HE (2018) Reproducibility vs. Replicability: A Brief History of a Confused Terminology. Front. Neuroinform. 11:76. doi: 10.3389/fninf.2017.00076
Supplementary Material
Supplementary Material (oder Supplementary Data) ist Material (inkl. Daten), dass aufgrund der limitierten Platzverhältnisse nicht in den Haupttext eines wissenschaftlichen Artikels integriert werden kann. Dieses Material ist nicht unmittelbar nötig, um die Ergebnisse und Schlussfolgerungen des Artikels nachzuvollziehen, kann aber zur Kontextualisierung oder weiterführenden Forschung trotzdem relevant für den Leser/die Leserin sein. Es wird empfohlen, Supplementary Material auf einem Publikations- oder Forschungsdatenrepositorium zu veröffentlichen, das DOIs oder andere PID vergibt.
Basiert auf: International Journal of Epidemiology
Synchronisierung
Bei der Synchronisierung werden Daten zwischen zwei oder mehreren Speicherorten automatisch abgeglichen, sodass überall jeweils (nur) die neuste Version vorhanden ist. Das Ziel ist, Daten von beliebigen Endgeräten aus bearbeiten zu können. Der Begriff ist von Backup zu unterscheiden.
Weitere Informationen: forschungsdaten.info | Synology-Blog
Urheberrecht bei Daten
Forschungsdaten sind urheberrechtlich geschützt, wenn sie eine geistige Schöpfung darstellen und individuellen Charakter haben. Rohe Messwerte und Fakten fallen in der Regel nicht in diesen Schutzbereich, jedoch kann deren Aufbereitung geschützt sein, wenn sie einen schöpferischen und individuellen Charakter hat. Das kann z.B. bei prozessierten, angereicherten, visualisierten oder anders aufbereiteten Daten der Fall sein. Im Rahmen des Urheberrechts gibt es gewisse Reglungen, die die Nutzung eines geschützten Werkes zu bestimmten Zwecken erlauben, beispielsweise für Zitate und die Verwendung im Unterricht an Schulen oder Universitäten. Das Urheberrecht ist die Grundlage für die Vergabe von Lizenzen, z.B. gemäss dem Creative-Commons-Modell.
Quellen und weitere Informationen: Urheberrechtsgesetz (URG) | ETH Research Data Management Wiki
Verschlüsselung
Verschlüsselung ist eine technische Sicherheitsmassnahme, bei der lesbare Daten mithilfe eines Schlüssels oder Passworts in unlesbaren Text umgewandelt werden. Nur mit dem richtigen Schlüssel können die Daten in ihre ursprüngliche Form zurückverwandelt werden. Dies schützt Daten selbst dann noch, wenn etwa der Passwortschutz umgangen wurde. Kostenlose und quelloffene für die Verschlüsselungswerkzeuge sind etwa 7zip (7-zip.org, auf Windowsgeräten vorinstalliert), Veracrypt (veracrypt.io) und Cryptomator (cryptomator.org).
Quellen und weitere Information: Wikipedia | Cessda Data Management Guide | Electronic Frontier Foundation
Vorgaben der Forschungsförderer
Grosse Forschungsförderer wie der Schweizerische Nationalfonds, andere nationale Forschungsförderer oder die Europäische Union knüpfen an die Vergabe von Projektfördergeldern in der Regel die Bedingung, einen Datenmanagementplan einzureichen sowie Forschungsdaten öffentlich zugänglich zu machen (Open (Research) Data), sofern es keine rechtlichen oder ethischen Hinderungsgründe gibt.
Basiert auf: https://www.snf.ch/de/dMILj9t4LNk8NwyR/thema/open-research-data
