(Hrsg.) Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann

Qualität in der Inhaltserschließung

Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. 

ISBN 978-3-11-069149-8 04.10.2021 89,95 € Portofrei Bestellen (Buch)

In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.

Mehr Infos

Inhaltsverzeichnis

Qualität in der Inhaltserschließung: Eine Synthese zentraler Themen und Perspektiven

Zusammenfassung

Dieses Briefing-Dokument synthetisiert die zentralen Themen und Erkenntnisse aus einer tiefgehenden Analyse zur Qualität in der Inhaltserschließung, vornehmlich im bibliothekarischen Kontext des deutschsprachigen Raums. Die Diskussion, befeuert durch die strategische Neuausrichtung der Deutschen Nationalbibliothek (DNB) hin zu maschinellen Verfahren, offenbart, dass Qualität ein multidimensionales und kontextabhängiges Konstrukt ist.

Die zentralen Erkenntnisse sind:

  1. Paradigmenwechsel zur Automatisierung: Der unaufhaltsame Anstieg digitaler Publikationen zwingt Bibliotheken, insbesondere die DNB, zur Abkehr von rein intellektueller Erschließung hin zu (halb-)automatisierten Verfahren mittels Künstlicher Intelligenz und maschinellem Lernen. Diese Transformation wird als alternativlose Daueraufgabe angesehen, um große Dokumentmengen bewältigen zu können, stößt jedoch auf erhebliche Kritik hinsichtlich der Ergebnisqualität.
  2. Multidimensionalität der Qualität: Qualität in der Inhaltserschließung ist kein monolithischer Wert, sondern umfasst Dimensionen wie Datenqualität, Regelkonformität, Nützlichkeit für das Retrieval (Precision/Recall), Transparenz der Verfahren und die Eignung für die Nachnutzung. Das Thesenpapier des Expertenteams ET RAVI definiert als Grunddimensionen Verlässlichkeit und Transparenz, die sich auf Normdaten, Verwendungsregeln und Retrieval-Anwendungen erstrecken.
  3. Fundament der Datenqualität: Das Prinzip „Garbage in, garbage out“ (GIGO) ist von zentraler Bedeutung. Formale Datenqualität, die auf expliziten Regeln, umfassender Dokumentation, automatisierter Validierung und einem klaren Praxisbezug basiert, wird als unverzichtbare Grundlage für jede qualitative Inhaltserschließung identifiziert. Analysen von Bibliothekskatalogen im MARC-21-Format zeigen jedoch, dass das Potenzial der Formate zur Qualitätssicherung oft bei weitem nicht ausgeschöpft wird.
  4. Infrastrukturen und Standards als Schlüssel: Die Qualität und Interoperabilität der Inhaltserschließung hängen maßgeblich von kooperativ gepflegten Infrastrukturen und standardisierten Protokollen ab. Die Gemeinsame Normdatei (GND) bildet das Rückgrat der verbalen Erschließung, kämpft aber mit Heterogenität aus ihrer Entstehungsgeschichte. Projekte wie Wikidata, coli-conc (für Konkordanzen) und standardisierte Reconciliation-APIs (für den Datenabgleich) sind entscheidend, um Daten zu vernetzen und ihre Qualität zu verbessern.
  5. Kluft zwischen Erschließung und Nutzeroberfläche: Ein erhebliches Defizit besteht in der mangelnden Ausschöpfung qualitativ hochwertiger Erschließungsdaten in den Recherchewerkzeugen (OPACs, Discovery-Systeme). Die drei Kernfunktionen der Inhaltserschließung – Zugang, Orientierung und Exploration – werden oft nur unzureichend unterstützt. Die Darstellung ist häufig unverständlich, und innovative, explorative Sucheinstiege fehlen fast gänzlich, wodurch der Mehrwert der Erschließungsarbeit für die Nutzenden verloren geht.

Zusammenfassend befindet sich die Inhaltserschließung in einer tiefgreifenden Transformationsphase. Der Erfolg zukünftiger, hybrider Modelle, die intellektuelle und maschinelle Verfahren intelligent verzahnen, hängt von der Etablierung robuster, transparenter und kooperativ getragener Infrastrukturen sowie einer stärkeren Ausrichtung auf die tatsächliche Nutzung der Daten in modernen Recherchesystemen ab.

--------------------------------------------------------------------------------

1. Einleitung: Das multidimensionale Konzept der Qualität in der Inhaltserschließung

Die Frage nach der Qualität in der Inhaltserschließung hat im deutschsprachigen (DACH) Bibliotheks- und Informationswesen stark an Bedeutung gewonnen. Auslöser für die intensivierte Diskussion war insbesondere die Veröffentlichung des angepassten Erschließungskonzepts der Deutschen Nationalbibliothek (DNB) im Jahr 2017, das eine weitreichende Umstellung auf maschinelle Verfahren vorsieht. Diese strategische Neuausrichtung hat eine grundlegende Debatte über die Definition, Messbarkeit und Sicherung von Qualität entfacht.

Die Analyse der Quelldokumente zeigt, dass Qualität kein eindimensionaler oder absoluter Wert ist, sondern ein komplexes, multidimensionales Konstrukt. Es hängt stark vom jeweiligen Kontext, den Zielen und den Anforderungen der Nutzergruppen ab. Die Kernaufgabe von Bibliotheken, über die reine Informationsbereitstellung hinaus eine Kuration, Kontextualisierung und Organisation von Wissen zu leisten (Knowledge Organization), bildet den normativen Hintergrund dieser Debatte. Qualität in der Inhaltserschließung lässt sich daher nicht auf eine einzelne Metrik reduzieren, sondern muss aus verschiedenen Perspektiven beleuchtet werden.

Das Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) schlägt eine strukturierte Betrachtung vor, die auf den übergeordneten Grunddimensionen Transparenz und Verlässlichkeit basiert. Diese Dimensionen erstrecken sich über den gesamten Prozess:

  • Produktion von Normdaten: Regelbasierte Erstellung und Pflege von Wissensorganisationssystemen.
  • Ressourcenbeschreibung: Flexible Verwendungsregeln, die unterschiedlichen Dokumenttypen und Erschließungstiefen gerecht werden.
  • Retrieval und Anzeige: Transparente Auswertung der Metadaten in Suchwerkzeugen zur optimalen Auffindbarkeit.
  • Nachnutzung: Öffnung der Daten für Kontexte jenseits des klassischen Retrievals, wie die Digital Humanities.

Dieser vielschichtige Ansatz verdeutlicht, dass die Diskussion über intellektuelle versus maschinelle Verfahren nur ein Teilaspekt einer weitaus größeren Herausforderung ist: die Schaffung eines Ökosystems, in dem Daten, Werkzeuge und Prozesse so gestaltet sind, dass sie eine verlässliche, transparente und letztlich nützliche Inhaltserschließung ermöglichen.

2. Historische Entwicklung des Qualitätsdiskurses (1970–2020)

Die Debatte um Qualität in der Sacherschließung hat sich über die letzten 50 Jahre signifikant gewandelt, angetrieben durch technologische Umbrüche, ökonomische Zwänge und veränderte Nutzungsanforderungen.

  • 1970er Jahre: In dieser Dekade war Qualität primär ein internes Thema der einzelnen Bibliotheken. Kooperationen waren selten, und der Fokus lag auf dem eigenen Bestand. Qualität bezog sich weniger auf die Erschließung als auf die Vollständigkeit des universellen Bestands selbst.
  • 1980er Jahre: Mit dem Aufkommen von Verbundsystemen rückte die kooperative Erschließung in den Mittelpunkt. Regelwerke wie die Regeln für den Schlagwortkatalog (RSWK) wurden entwickelt, um Einheitlichkeit zu schaffen. Die Qualität wurde jedoch stark an der Kompetenz und Gewissenhaftigkeit des „individuellen Indexierers“ festgemacht, weniger am Regelwerk selbst. Gleichzeitig begannen wirtschaftliche Überlegungen eine Rolle zu spielen, die zur Nutzung von Fremddaten führten.
  • 1990er Jahre: Die Einführung von Online-Katalogen (OPACs) verlagerte den Fokus auf die Anwendenden und das Benutzerverhalten. Die Übernahme von Fremddaten war nun primär von Rationalisierungsbestrebungen motiviert, nicht unbedingt von deren besonderer Qualität. Ursula Schulz forderte eine Neuausrichtung weg von der „Regelwerk-Orientierung“ hin zur „Orientierung am Benutzerverhalten“. Gleichzeitig wurde eine „neue Oberflächlichkeit“ und ein „Quick-and-Dirty-Ansatz“ bei Recherche-Software beklagt, der viele Treffer über Genauigkeit stellte.
  • 2000er Jahre: Die maschinelle Indexierung lieferte noch keine zufriedenstellenden Ergebnisse, wurde aber bereits als Hoffnungsträger zur „dramatischen Steigerung“ der Qualität gehandelt. Parallel dazu entstand durch Social-Media-Technologien das Collaborative bzw. Social Tagging als Alternative. Die dabei entstehenden unkontrollierten Vokabulare (Folksonomies) konnten die bibliothekarische Sacherschließung jedoch aufgrund ihres „chaotischen Charakters“ nicht ersetzen. Die Rechtfertigung für die aufwendige intellektuelle Indexierung lag in ihrer Fähigkeit, ein „qualitätvolles, ballastfreies Produkt“ zu liefern.
  • 2010er Jahre bis heute: Die Debatte wird zunehmend von der Entscheidung der DNB geprägt, (voll)automatisierte Verfahren flächendeckend einzuführen. Dies führte zu heftiger Kritik, die DNB vernachlässige ihre „Kernaufgabe einer hochqualitativen Inhaltserschließung“. Heidrun Wiesenmüller bewertete die Ergebnisse der maschinellen Indexierung der DNB als unzureichend und verglich sie mit einer „besseren Stichwortsuche“. In der Folge musste die DNB die Umstellung zeitweise aussetzen, „bis zur Erreichung eines befriedigenden Qualitätslevels“. Aktuell wird versucht, mit Hilfe von Künstlicher Intelligenz neue, leistungsfähigere Systeme zu entwickeln. Es etabliert sich eine pragmatische Haltung, die für intellektuelle und automatisierte Erschließung unterschiedliche Qualitätsmaßstäbe ansetzt.

3. Automatisierung vs. Intellektuelle Erschließung: Eine zentrale Debatte

Der Kern der aktuellen Qualitätsdebatte dreht sich um die zunehmende Automatisierung der Inhaltserschließung, die sowohl als Notwendigkeit als auch als Bedrohung für traditionelle Qualitätsstandards wahrgenommen wird.

3.1. Die Strategie der Deutschen Nationalbibliothek (DNB)

Die DNB steht im Zentrum dieser Transformation. Ihre strategische Entscheidung, maschinelle Verfahren einzusetzen, wurde maßgeblich durch die Novellierung des DNB-Gesetzes 2006 ausgelöst, das den Sammelauftrag auf „unkörperliche Medienwerke“ (d. h. Netzpublikationen) ausweitete. Die schiere Menge dieser digitalen Objekte überstieg schnell alle Prognosen und machte eine traditionelle, intellektuelle Erschließung unmöglich.

Kernaussagen der DNB-Strategie:

  • Notwendigkeit: Die rasant wachsenden Mengen an Netzpublikationen erfordern maschinelle Verfahren, um einen thematischen Zugriff zu ermöglichen.
  • Vorteile der Automatisierung:
    • Erschließung sehr großer Dokumentmengen.
    • Erschließung von Dokumentgruppen, die traditionell nicht im Fokus standen (z. B. Zeitschriftenartikel).
    • Möglichkeit zur wiederholten Erschließung bei Verfahrensänderungen (Re-Indexierung).
    • Retrospektive Anwendung auf bislang unerschlossene Bestände.
  • Ressourcenumlenkung: Um Innovationsprojekte wie PETRUS (automatisierte Erschließung) zu finanzieren, wurden Ressourcen aus der intellektuellen Inhaltserschließung auch für körperliche Medienwerke umgelenkt.
  • Stufenweise Reduktion der intellektuellen Erschließung: Ab 2012 wurde die Beschlagwortung für bestimmte Gattungen (z. B. Kochbücher, Reiseführer, Ratgeber) eingestellt. Ab 2015 wurde sie für Schulbücher aufgegeben.
  • Das Konzept von 2017: Dieses sah vor, die intellektuelle Beschlagwortung von Belletristik sowie Kinder- und Jugendliteratur generell aufzugeben und die Klassifikation mit vollständigen DDC-Notationen durch die maschinelle Vergabe von GND-Schlagwörtern zu ersetzen. Perspektivisch sollten maschinelle Verfahren flächendeckend eingesetzt werden.

Reaktionen und Anpassungen: Das Konzept von 2017 stieß auf heftige Kritik, insbesondere aus den wissenschaftlichen und öffentlichen Bibliotheken. Kritisiert wurde die unzureichende Qualität der maschinellen Ergebnisse. Klaus Ceynowa (BSB) warf der DNB vor, ihre „Kernaufgabe einer hochqualitativen Inhaltserschließung“ aufzugeben. Öffentliche Bibliotheken beklagten den Wegfall der Erschließung für nachgefragte Gattungen wie Belletristik.

Als Reaktion darauf passte die DNB ihre Strategie an:

  • Für Kinder- und Jugendliteratur wurde ein Verfahren entwickelt, um Erschließungsdaten des Buchhandels in GND-Schlagwörter umzuwandeln (seit Herbst 2020 produktiv).
  • Die maschinelle Schlagwortvergabe für Publikationen der Reihe B (nichtwissenschaftliche Literatur) wurde 2019 wieder aufgegeben, da die Fehlerquote zu hoch war.
  • Die maschinelle Vergabe für Dissertationen (Reihe H) wird beibehalten, da die Ergebnisse als akzeptabel bewertet werden.

Trotz der Rückschläge hält die DNB grundsätzlich an ihrer strategischen Ausrichtung fest und strebt an, Hauptakteurin eines Kompetenznetzwerks für maschinelle Erschließung zu werden.

3.2. Bewertung maschineller Verfahren

Die Messung der Qualität maschineller Erschließung ist komplex, da es keinen allgemeingültigen, einfachen Qualitätsbegriff gibt. Die DNB verwendet ein mehrstufiges System zur Bewertung:

MethodeBeschreibung
Vergleich mit GoldstandardMaschinell vergebene Sachgruppen oder Schlagwörter werden mit intellektuell vergebenen Daten (als "Goldstandard" betrachtet) abgeglichen, um prozentuale Werte für richtige und falsche Zuweisungen zu erhalten.
Menschliche BewertungPersonen bewerten die Nützlichkeit maschinell vergebener Schlagwörter für das Retrieval auf einer vierstufigen Skala: sehr nützlich, nützlich, wenig nützlich, falsch. Ziel ist hierbei nicht die Erstellung eines Abstracts, sondern die Anreicherung mit thematischen Zugriffspunkten.
Gütemaße aus dem Information RetrievalEs werden die Metriken Precision (Anteil korrekter Dokumente im Suchergebnis) und Recall (Anteil gefundener relevanter Dokumente) sowie das F-Maß (harmonisches Mittel aus Precision und Recall) berechnet. Die DNB nutzt das F-Maß als zentrales Gütemaß und setzt für die Inbetriebnahme von Verfahren (z.B. DDC-Kurznotationen) einen Schwellenwert von F = 0,65.
KonfidenzwerteDer Algorithmus gibt für jedes Ergebnis einen Konfidenzwert (zwischen 0 und 1) aus, der angibt, wie „sicher“ er sich bei der Zuweisung ist. Durch Festlegung eines Schwellenwerts können unsichere Ergebnisse herausgefiltert werden.

Eine Auswertung der maschinellen Schlagwortvergabe für Dissertationen der Reihe H (2017) ergab beispielsweise folgende Verteilung der Bewertungen durch Personen:

  • Sehr nützlich: 33%
  • Nützlich: 26%
  • Wenig nützlich: 23%
  • Falsch: 18%

Diese Zahlen zeigen, dass fast 60% der Ergebnisse als (sehr) nützlich eingestuft wurden, aber auch ein signifikanter Anteil als weniger hilfreich oder fehlerhaft.

3.3. Künstliche Intelligenz und die Zukunft

Die Zukunft der automatisierten Inhaltserschließung liegt in hybriden Ansätzen, die symbolische (logikbasierte) und subsymbolische (Machine-Learning-basierte) Methoden der Künstlichen Intelligenz kombinieren.

  • Symbolische KI: Arbeitet mit explizit repräsentiertem Wissen, wie es in Ontologien und Wissensgraphen vorliegt. Sie ist stark in der logischen Schlussfolgerung, aber weniger flexibel im Umgang mit unscharfen oder neuen Daten.
  • Subsymbolische KI (Machine Learning / Deep Learning): Lernt Muster und Zusammenhänge direkt aus großen Datenmengen (z. B. durch neuronale Netze). Sie ist sehr anpassungsfähig, aber ihre Ergebnisse sind oft schwer nachvollziehbar („Black Box“).

Harald Sack argumentiert, dass die Kombination beider Ansätze einen „qualitativen Quantensprung“ darstellen kann. State-of-the-Art-Methoden könnten in verschiedenen Bereichen eingesetzt werden:

  • Für die Erschließung: Verbale und klassifikatorische Inhaltserschließung, Transkription historischer Dokumente, Pflege von Wissensorganisationssystemen.
  • Für das Retrieval: Semantische Suche, Visualisierung von Suchergebnissen, explorative Suche und Empfehlungssysteme.

Solche hybriden Systeme können sowohl die semantische Tiefe von Wissensgraphen als auch die Mustererkennungsfähigkeiten von Deep Learning nutzen, um präzisere und kontextsensitivere Ergebnisse zu erzielen.

4. Datenqualität als Fundament

Unabhängig davon, ob die Erschließung intellektuell oder maschinell erfolgt, ist die formale Qualität der zugrundeliegenden Daten eine unabdingbare Voraussetzung für hochwertige Ergebnisse. Das aus der Informatik stammende GIGO-Prinzip (Garbage In, Garbage Out) gilt hier uneingeschränkt.

4.1. Theoretische Rahmenwerke und praktische Ansätze

Die wissenschaftliche Auseinandersetzung mit Datenqualität hat verschiedene Modelle hervorgebracht:

  • Qualitätsdimensionen nach Wang und Strong (1996): Dieses weit verbreitete Framework unterteilt Datenqualität in vier Dimensionen:
    • Intrinsic: Genauigkeit, Objektivität, Glaubwürdigkeit.
    • Contextual: Relevanz, Vollständigkeit, Aktualität.
    • Representational: Interpretierbarkeit, Verständlichkeit, konsistente Darstellung.
    • Accessibility: Zugänglichkeit, Zugriffssicherheit.
  • "Fit for Purpose": Dieser nutzerzentrierte Ansatz rückt die Verwendbarkeit von Daten für einen spezifischen Zweck in den Mittelpunkt. Qualität wird nicht absolut definiert, sondern danach bemessen, ob die Daten für den jeweiligen Anwendungsfall geeignet sind. Dieser pragmatische Ansatz wird auch vom Rat für Informationsinfrastrukturen empfohlen, da eine allgemeingültige Normierung von Datenqualität in der Wissenschaft kaum zielführend erscheint.
  • FAIR-Prinzipien: Insbesondere im Bereich der Forschungsdaten haben sich die FAIR-Prinzipien (Findable, Accessible, Interoperable, Reusable) als Leitfaden etabliert, der auch auf Metadaten für die Inhaltserschließung übertragbar ist.

4.2. Die Rolle von Standards, Formaten und Regeln

Jakob Voß argumentiert, dass die Form von Daten „keine rein technische Nebensächlichkeit“ ist. Eine inhaltlich hervorragende Erschließung wird unbrauchbar, wenn die Daten aufgrund inkompatibler Formate nicht genutzt werden können. Er definiert vier zentrale Anforderungen an formale Datenqualität:

  1. Regeln: Es müssen explizite, formale Regeln für die Struktur und den Inhalt von Daten existieren.
  2. Dokumentation: Diese Regeln müssen leicht auffindbar, versioniert und für alle (Erschließende und Nutzende) zugänglich dokumentiert sein.
  3. Validierung: Die Einhaltung der Regeln muss systematisch und automatisiert überprüfbar (validierbar) sein, idealerweise durch formale Schemasprachen (z. B. JSON Schema, ShEx, Avram).
  4. Praxisbezug: Die Validierung muss reale Konsequenzen haben. Regelverstöße müssen zu Mitteilungen, Korrekturaufforderungen oder zur Ablehnung invalider Daten führen.

Die bibliothekarische Praxis ist jedoch von einer „babylonischen Formatverwirrung“ (Albrecht et al.) geprägt. Obwohl die deutschsprachigen Verbünde sich auf MARC 21 als Austauschformat geeinigt haben, kommen intern unterschiedliche, proprietäre und historisch gewachsene Formate (PICA, MAB2-basiertes ASEQ) zum Einsatz. Dies führt zu Informationsverlusten bei der „Übersetzung“ zwischen den Formaten, insbesondere bei komplexen Sacherschließungsdaten wie LCSH oder DDC-Notationen.

4.3. Fallstudie MARC 21: Potenzial vs. Realität

Eine empirische Analyse von Péter Király und Rudolf Ungváry vergleicht die MARC-21-Datensätze mehrerer National- und Universitätsbibliotheken (u. a. DNB, UB Gent, ungarische Bibliotheken). Ihre Ergebnisse zeigen eine erhebliche Diskrepanz zwischen dem theoretischen Potenzial des Formats und der praktischen Nutzung:

  • Unterausnutzung: Viele Möglichkeiten des MARC-21-Formats zur Codierung spezifischer Informationen (z. B. Feld 648 für Zeitschlagwörter) werden nur von wenigen Bibliotheken konsequent genutzt.
  • Inkonsistenzen: Es gibt zahlreiche Fehler, wie ungültige Werte in Kontrollfeldern (insbesondere Feld 008), die Verwendung nicht definierter (lokaler) Felder und Unterfelder (9XX, $9) und eine inkonsistente Belegung verwandter Unterfelder.
  • Software-Defizite: Viele dieser Probleme werden auf Mängel in der Katalogisierungssoftware zurückgeführt, die keine ausreichenden Validierungs- und Prüffunktionen bietet. Es ist oft möglich, Felder und Unterfelder zu verwenden, die im Standard nicht existieren, ohne dass eine Fehlermeldung erfolgt.
  • Atavismen: Die Praxis, Interpunktionszeichen manuell zu erfassen, wird als überflüssiger Atavismus kritisiert, der im Widerspruch zum MARC-Prinzip der separaten Datenelement-Behandlung steht und die maschinelle Weiterverarbeitung erschwert.

Die Studie kommt zu dem Schluss, dass die Probleme weniger in der Struktur von MARC 21 selbst liegen, sondern in den Schwächen seiner praktischen Anwendung und vor allem in den Defiziten der eingesetzten Katalogisierungssysteme.

5. Zentrale Werkzeuge und Infrastrukturen für die Qualitätssteigerung

Zur Verbesserung der Qualität und Interoperabilität von Erschließungsdaten sind kooperative Infrastrukturen, gemeinsame Normdateien und standardisierte Werkzeuge von entscheidender Bedeutung.

5.1. Die Gemeinsame Normdatei (GND)

Die GND ist das zentrale Instrument für die verbale Inhaltserschließung im deutschsprachigen Raum und dient als Reservoir an kontrollierten Begriffen für Personen, Körperschaften, Werke, Geografika und Sachbegriffe.

  • Umfang und Struktur: Die GND umfasst ca. 9 Millionen Datensätze (Stand Oktober 2020), die aus der Zusammenführung der Vorgängerdateien PND, GKD, SWD und EST im Jahr 2012 hervorging.
  • Herausforderung Heterogenität: Die größte Herausforderung für die Qualität der GND ist ihre Heterogenität. Diese resultiert aus:
    • Der Übernahme von Altdaten, die nach heute ungültigen Regelwerken (z. B. RAK, alte RSWK-Versionen) erfasst wurden.
    • Mehrfachen Regelwerkswechseln (Übergangsregeln nach FRBR, Umstieg auf RDA, Anpassung an LRM).
    • Großen Dateneinspielungen aus anderen Systemen.
    • Der Erfassung durch eine Vielzahl von Personen und Institutionen mit unterschiedlichen Kenntnisständen.
  • Maßnahmen zur Qualitätssicherung: Um die Heterogenität zu reduzieren und die Qualität zu sichern, wurde eine umfassende organisatorische Struktur geschaffen:
    • GND-Ausschuss: Gremium für strategische und politische Fragen.
    • GND-Kooperative: Definiert formale Absprachen und Pflichten für alle teilnehmenden Einrichtungen, einschließlich der Verantwortung für die Datenpflege.
    • Arbeitsteam zur Behebung von Qualitätsproblemen: Ein verbundübergreifendes Team, das seit 2019 praktisch an der Behebung von Problemen wie Dubletten und fehlenden Pflichtfeldern arbeitet.
    • Gesprächsreihe zur Öffnung der GND: Diskutiert die Anforderungen neuer Anwendergruppen (z. B. Archive, Museen) und hat u. a. Leitlinien für die Qualität von Dateneinspielungen erarbeitet.
    • Technische Maßnahmen: Kennzeichnung des Regelwerks und des Katalogisierungslevels in den Datensätzen, um die Qualität einschätzbar zu machen.

5.2. Wikidata als kollaborative Wissensbasis

Wikidata ist eine freie, kollaborative und mehrsprachige Wissensbasis, die strukturierte Daten sammelt. Mit über 90 Millionen Entitäten (Ende 2020) und mehr als 11.500 aktiven Editierenden ist sie ein zentraler Knotenpunkt im Linked Data Web.

  • Funktionsweise und Merkmale:
    • Frei: Die Daten stehen unter der CC0-Lizenz zur Verfügung.
    • Kollaborativ: Pflege durch eine weltweite Community.
    • Flexibles Datenmodell: Ermöglicht die Abbildung komplexer und sogar widersprüchlicher Aussagen mit Quellenangaben.
  • Aspekte der Datenqualität: Die Qualität in Wikidata wird, ähnlich wie bei Wang & Strong, in intrinsische, kontextuelle, repräsentative und zugänglichkeitsbezogene Aspekte unterteilt. Typische Probleme sind inkorrekte oder unbelegte Daten, inkonsistente Modellierung und Unvollständigkeit.
  • Werkzeuge zur Qualitätssicherung: Da eine manuelle Kontrolle bei dieser Größe unmöglich ist, wurden diverse Werkzeuge entwickelt:
    • Constraint-Checks: Definieren Regeln für Eigenschaften, deren Verletzung den Editierenden angezeigt wird.
    • ORES: Ein maschinelles Lernsystem, das die Wahrscheinlichkeit für Vandalismus bei Änderungen bewertet und die Qualität von Datenobjekten in Klassen (A bis E) einstuft.
    • Arbeitslisten: Auf Basis von SPARQL-Abfragen erstellte Listen von Daten, die vervollständigt oder korrigiert werden müssen.
    • Schemata (ShEx): Ermöglichen die Prüfung von Datenobjekten gegen ein definiertes Schema, um Modellierungsfehler aufzudecken.
  • Anwendungsfall-Experiment (DFKI): Ein Experiment des DFKI zur Eigennamenerkennung (NER) zeigte keinen direkten Zusammenhang zwischen den ORES-Qualitätsklassen von Wikidata-Datenobjekten und der Performanz der NER-Modelle. Dies deutet darauf hin, dass die Kriterien für intellektuell kuratierte Wissensbasen (z. B. Verlinkung, Belege) sich fundamental von denen für das Training maschineller Verfahren (Menge annotierter Beispiele) unterscheiden können.

5.3. Reconciliation und Datenabgleich (OpenRefine & lobid-gnd)

Datenabgleich (Reconciliation) ist der Prozess, bei dem lokale Daten (z. B. Freitextnamen in einer Tabelle) mit den Einträgen einer externen Normdatei verknüpft werden. Dies ist ein entscheidender Schritt zur Qualitätssteigerung im Sinne von Einheitlichkeit und Eindeutigkeit.

  • Das Protokoll: Das in OpenRefine verwendete und von lobid-gnd für die GND implementierte Protokoll ist ein De-facto-Standard, dessen offizielle Standardisierung bei der W3C Entity Reconciliation Community Group angestrebt wird. Es basiert auf JSON und definiert eine Web-API mit mehreren Diensten:
    • Service Manifest: Beschreibt den Dienst, seinen Namensraum und die verfügbaren Funktionen.
    • Reconciliation Query: Sendet eine Anfrage mit abzugleichenden Werten (und optionalen Zusatzinformationen wie Entitätstyp) an den Dienst und erhält eine Liste von Kandidaten mit einem Übereinstimmungs-Score.
    • Hilfsdienste (Suggest, Preview): Bieten Vorschläge während der Eingabe und eine Vorschau für Entitäten.
    • Data Extension: Ermöglicht die Anreicherung der abgeglichenen Daten mit zusätzlichen Informationen aus der Normdatei (z. B. Hinzufügen von Lebensdaten zu einer Person).

Dieses Protokoll macht Normdaten für neue Anwendungsfälle zugänglich, insbesondere für die halbautomatische Erschließung mittels Stapelverarbeitung.

5.4. Named Entity Linking (NEL) mit GND und Wikidata

NEL geht über die reine Erkennung von Eigennamen (NER) hinaus und verknüpft diese mit einem eindeutigen Datensatz in einer Wissensbasis. Eine Studie im Rahmen des Projekts SoNAR untersuchte die Verknüpfung von Entitäten in historischen deutschsprachigen Zeitungen mit Wikidata und der GND.

  • Abdeckungsrate:
    • Für alle in der Stichprobe vorkommenden Entitäten (inkl. Duplikaten) hatte Wikidata eine leicht höhere Abdeckung (69,5%) als die GND (68,1%).
    • Betrachtet man nur die individuellen, eindeutigen Entitäten, ist der Vorsprung von Wikidata ebenfalls gering (54,1% vs. 51,8%).
    • Beide Wissensbasen decken weniger als 60% der benötigten einzigartigen Entitäten ab, was auf die besonderen Herausforderungen historischer Korpora hindeutet.
  • Spezifische Stärken:
    • Beide decken Lokationen sehr gut ab (Wikidata: 91,4%, GND: 81,3%).
    • Die GND ist etwas besser bei der Abdeckung von Organisationen.
    • Wikidata ist etwas besser bei Personen.
  • Performanz des NEL-Algorithmus: Die automatische Verlinkung mit Wikidata erzielte eine Precision von 37,9% und einen Recall von 38,5%. Das bedeutet, dass über 60% der automatisch gesetzten Links falsch waren, was den Einsatz ohne intellektuelle Nachkontrolle für die Erschließung ineffektiv macht.
  • Fehlerquellen: Die Fehleranalyse identifizierte drei Hauptursachen: Probleme im Algorithmus (z. B. falsche Disambiguierung), Mängel in der Wissensbasis (z. B. unvollständige oder doppelte Einträge) und Fehler im Korpus (z. B. durch OCR).

5.5. Qualität der Optical Character Recognition (OCR)

Für die maschinelle Inhaltserschließung von digitalisierten Drucken ist die Qualität des erzeugten Volltextes entscheidend. Die Bewertung der OCR-Qualität ist jedoch komplex.

  • Metriken:
    • Character Error Rate (CER): Misst den Anteil falsch erkannter Zeichen.
    • Word Error Rate (WER): Misst den Anteil falsch erkannter Wörter. Ist oft deutlich höher als die CER.
    • Bag-of-Words (BOW): Misst, wie viele der Wörter des Originaltextes auch im OCR-Ergebnis vorkommen, unabhängig von der Reihenfolge.
    • Reading Order (RO): Evaluiert die korrekte Erkennung der Lesereihenfolge, was für die strukturelle Integrität des Textes entscheidend ist.
  • Kritik an vereinfachten Metriken: Das in den DFG-Praxisrichtlinien empfohlene Bernoulli-Experiment (Stichprobenprüfung einzelner Zeichen) führt zu einer zu optimistischen Einschätzung der Qualität. Ein Vergleich an zwei Beispielen (Monografie und Zeitung) zeigte, dass die WER eine drastisch negative Bewertung lieferte (nur 12-20% korrekte Wörter), während das Bernoulli-Experiment eine hohe Genauigkeit (89-94%) suggerierte.
  • Kontextabhängigkeit: Die Anforderungen an die OCR-Qualität hängen stark vom Anwendungsfall ab.
    • Information Retrieval (Keyword-Suche): Ist relativ robust gegenüber OCR-Fehlern. Die Lesereihenfolge spielt kaum eine Rolle. Fehler beeinflussen primär das Ranking.
    • Digital Humanities (z. B. Stilometrie, Kollokationsanalyse): Sind sehr anfällig für OCR-Fehler. Eine OCR-Genauigkeit unter 70-75% kann die Ergebnisse signifikant verfälschen. Hier sind transparente Angaben zur Fehlerquote und Nachvollziehbarkeit des Prozesses essenziell.

6. Auswirkungen auf Nutzerschnittstellen: Discovery-Systeme

Die Qualität der Inhaltserschließung entfaltet ihren vollen Wert erst, wenn sie in den von Endnutzer:innen verwendeten Recherchewerkzeugen – klassischen OPACs und modernen Resource-Discovery-Systemen (RDS) – adäquat umgesetzt wird. Die Analyse von Heidrun Wiesenmüller zeigt hier jedoch erhebliche Defizite auf.

6.1. Die drei Funktionen der Inhaltserschließung

  1. Zugang erhalten (Retrieval): Die primäre Funktion, thematisch relevante Dokumente zu finden. Dies umfasst präzise Suchen, Überblicksrecherchen und das Filtern von Treffermengen.
  2. Orientieren (Information): Die Anzeige von Erschließungsinformationen (wie Schlagwörtern), um schnell zu verstehen, worum es in einem Dokument geht. Diese Funktion wird oft unterschätzt und in Nutzeroberflächen vernachlässigt.
  3. Explorieren (Navigation/Entdeckung): Das Navigieren innerhalb von Wissensorganisationssystemen (z. B. zu verwandten Begriffen springen) oder das Entdecken inhaltlich ähnlicher Dokumente, oft ohne vordefiniertes Ziel (Serendipität).

6.2. Anforderungen von Discovery-Systemen an die Inhaltserschließung

Moderne RDS basieren auf Suchmaschinentechnologie (z. B. Apache Solr, Elasticsearch). Jan Frederik Maas leitet daraus spezifische Anforderungen an die Erschließungsdaten ab, die in verschiedenen Systemkomponenten zum Tragen kommen:

  • Suche und Relevanz-Ranking:
    • Felder, die für die Relevanzberechnung herangezogen werden, sollten eine homogene Erschließungstiefe und eine hohe Abdeckung aufweisen. Ansonsten werden tiefer erschlossene (oft ältere) Dokumente fälschlicherweise als relevanter eingestuft.
    • Daten sollten maschineninterpretierbar sein (z. B. numerische Werte statt Freitext für Auflagen), um Boosting-Funktionen zu ermöglichen.
  • Facettierung:
    • Für thematische Facetten sind klassifikatorische Merkmale (z. B. DDC, RVK) besser geeignet als verbale Schlagwörter, die oft zu granular und zu zahlreich sind.
    • Voraussetzungen sind eine hohe Abdeckung, für Nutzer:innen verständliche Klassenbezeichnungen und Aktualität des Klassifikationssystems.
  • Darstellung und Vernetzung:
    • Bezeichnungen müssen verständlich sein (z. B. "Thema" statt "Schlagwort").
    • Daten sollten atomar vorliegen, um sie gezielt verlinken und für Anschlussrecherchen nutzen zu können.
    • Semantische Beziehungen aus Normdaten (Ober-/Unterbegriffe) sollten für explorative Funktionen ausgewertet werden.

6.3. Defizite aktueller Recherchewerkzeuge

Eine Analyse von rund 20 Recherchewerkzeugen durch Heidrun Wiesenmüller offenbart, dass der Mehrwert der Inhaltserschließung sich in den Zielanwendungen oft nicht entfalten kann.

  • Mangelnde Verständlichkeit und Angemessenheit:
    • Suchlogiken sind teilweise unbrauchbar (z. B. im aDIS-Katalog, wo mehrere Schlagwörter in getrennte, mit UND verknüpfte Felder eingegeben werden müssen).
    • Die Darstellung von Schlagwortfolgen ist inkonsistent und oft unverständlich (über zehn verschiedene Trennzeichen in 88 Katalogen).
    • Die Orientierungsfunktion wird vernachlässigt: Inhaltserschließungsdaten werden in Trefferlisten meist gar nicht und in der Vollanzeige erst weit unten angezeigt.
  • Ungenutztes Retrieval-Potenzial:
    • Hierarchische Beziehungen aus Normdaten (Ober-/Unterbegriffe) werden für die Sucherweiterung meist ignoriert, was zu unvollständigen Treffermengen führt.
    • Fortgeschrittene Funktionen wie Relevanz-Feedback sind kaum implementiert.
  • Fehlende Exploration:
    • Angebote zur Exploration sind rar und oft auf simple "more-like-this"-Funktionen beschränkt, die auf einer einfachen Weitersuche mit einer Notation basieren.
    • Daten für explorative Zwecke, wie Mappings zwischen GND und DDC, bleiben ungenutzt.
    • Die Vernetzung mit externen Quellen wie Wikipedia oder Wikidata findet nur in seltenen Ausnahmefällen statt (z. B. ETH-Bibliothek @ swisscovery), obwohl hier erhebliches Potenzial liegt.

Das Fazit lautet, dass eine erhebliche Lücke zwischen dem Aufwand für die qualitative Inhaltserschließung und deren Umsetzung in den für die Nutzer:innen sichtbaren Systemen klafft.

7. Die Rolle der Bibliotheksverbünde und kooperativer Ansätze

Bibliotheksverbünde spielen eine entscheidende Rolle bei der Bereitstellung von Daten und Werkzeugen, um die Qualität und insbesondere die Quantität der Inhaltserschließung zu verbessern.

7.1. Quantität als Qualitätsmerkmal

Aus der Perspektive der praktischen Erschließungsarbeit in einer einzelnen Bibliothek ist die Verfügbarkeit von qualitativ hochwertigen Fremddaten ein entscheidender Faktor. Rita Albrecht et al. argumentieren daher, dass Quantität selbst als ein Qualitätskriterium betrachtet werden kann: Je mehr regelkonforme Vorleistungen in den Verbunddatenbanken zur Verfügung stehen, desto zufriedener sind die Bibliothekar:innen, da der eigene Arbeitsaufwand sinkt.

Die Abdeckung mit Inhaltserschließung ist jedoch lückenhaft. Eine Auswertung von Verbunddatenbanken zeigt folgende Anteile von Titeln ohne RSWK-, RVK- oder BK-Erschließung:

  • B3Kat: 56,01%
  • hebis: 58,50%
  • K10plus: 79,03% (obwohl hier RVK oft nur im Exemplarbereich erfasst wird)

Umfragen in den Verbünden zeigen, dass neben den Standardsystemen GND und RVK auch viele hauseigene Systeme zum Einsatz kommen, was die Heterogenität weiter erhöht.

7.2. Werkzeuge und Infrastrukturen der Verbünde

Die Verbünde stellen Werkzeuge bereit, um die intellektuelle Sacherschließung zu unterstützen und teilzuautomatisieren:

  • Digitaler Assistent (DA-3) (GBV/SWB): Ein webbasiertes Tool, das nach einer Recherche im K10plus automatisch Fremddaten aus anderen Katalogen (B3Kat, DNB, LoC etc.) durchsucht und Vorschläge für Schlagwörter und Notationen generiert, die dann intellektuell geprüft werden.
  • hebis-SET (hebis): Ein in die Katalogisierungssoftware integriertes bzw. als Web-Tool entwickeltes Programm, das die Vergabe von RSWK-Schlagwörtern (mit automatischer Zerlegung von Folgen in Einzelschlagwörter) und RVK-Notationen (inkl. Signaturgenerierung) unterstützt.

7.3. Herausforderungen und Potenziale im Datentausch

Trotz einheitlicher Austauschformate wie MARC 21 führt die Vielfalt der Internformate und lokalen Erweiterungen zu erheblichen Problemen im Datentausch.

  • Potenziale zur Verbesserung des Datenaustauschs:
    • Culturegraph der DNB: Dieses Projekt bildet maschinell Werkcluster aus den Titeldaten aller deutschsprachigen Verbünde. Dadurch können alle zu einem Werk gehörenden Erschließungsdaten (z. B. aus verschiedenen Auflagen) gebündelt und für eine Anreicherung genutzt werden, was den bilateralen Datenaustausch zwischen den Verbünden erheblich vereinfachen und effizienter gestalten könnte.
    • Arbeitsteilige Verfahren: Anstatt dass jede Bibliothek ihre Bestände selbst erschließt, könnten Zuständigkeiten für bestimmte Fachgebiete oder Verlage verteilt werden. Die Verbünde müssten die technische Infrastruktur bereitstellen, um die so erzeugten Erschließungsdaten kontinuierlich und automatisiert zu verteilen.
  • Zukunft: Entitäten-basierte Modelle:
    • Datenmodelle wie FRBR, LRM und BIBFRAME sehen vor, die Inhaltserschließung nicht mehr an der einzelnen Manifestation (z. B. einer Buchausgabe), sondern am übergeordneten Werk vorzunehmen.
    • Dies würde eine enorme Effizienzsteigerung bedeuten, da die Erschließung eines Werks automatisch an alle zugehörigen Ausgaben „vererbt“ werden könnte.
    • Die Umsetzung scheitert jedoch bisher an der mangelnden Unterstützung in aktuellen Bibliothekssystemen und Austauschformaten. Die Transformation hin zu entitäten-basierten Systemen wird als langfristige, aber notwendige Entwicklung gesehen.

Erstellt: 31.12.2024 - 07:03  |  Geändert: 22.11.2025 - 22:33