Beiträge

Digital History: Wie man Begriffen aus der Politikgeschichte auf die Spur kommt

Welchen Beitrag könnten die Digital Humanities zu einer anwendungsorientierten Geschichtsschreibung (applied history) beitragen? Der folgende Beitrag will aufzeigen, wie serielle Quellen analysiert werden können, um für die Geschichtsschreibung präzise Aussagen über das Aufkommen von Begriffen in der Politischen Kommunikation zu treffen.

Das Handwerk der HistorikerInnen ist die Datenanalyse schlechthin. Wobei es sich mit Ausnahme der in der Wirtschaftsgeschichte seit den 1970er Jahren verwendeten Kliometrie (die Anwendung ökonomischer oder ökonometrischer Modelle) eben nicht um Daten handelt, welche man quantitativ auswerten könnte, sondern in der Regel um überlieferte Texte. Daran ändert sich auf den ersten Blick auch nicht viel, wenn diese Texte maschinenlesbar (also digital) vorliegen. Wenn es sich also um Texte handelt, dann werden in der Geschichtsschreibung mit der historisch-kritischen Methode Fragen an eine überlieferte Quelle gestellt. Warum adressiert jemand zu einer bestimmten Zeit in welcher Absicht eine bestimmte Botschaft? Dies geschieht, indem in der Regel Texte interpretiert werden, wobei der Kontext ebenso wichtig ist, innerhalb dessen ein Dokument entstanden ist. Die historisch-kritische Methode hat letztlich zum Ziel, zu “verstehen, warum etwas ist”, bzw. auf das Anwendungsgebiet der Geschichte bezogen, “warum etwas so geschehen ist”.

Der Aufstieg Hitlers zum Diktator innerhalb einer parlamentarischen Demokratie kann alleine mit einem quantitativen Verfahren der Datenanalyse nie erklärt werden. Welche Hypothesen Historiker formulieren, hängt letztlich aber auch von ziemlich viel Intuition ab und davon, dass man sich mit der bestehenden Fachliteratur auseinandersetzt und anschliessend neue Zusammenhänge entdeckt, bzw. Forschungslücken schliesst. Eine wichtige Rolle spielen dabei in der Geschichtswissenschaft die Quellen, die verfügbaren zeitgenössischen Unterlagen, welche beispielswiese durch die Öffnung der Archive alleine schon neue Fragestellungen auslösen können.

Grosse Hoffnung: Historische Semantik

In der fachhistorischen Community ist die Aufmerksamkeit gegenüber den Digital Humanities hoch. (1) Die Bewältigung grosser Textmengen ist gerade in der Zeitgeschichte eine grosse Herausforderung, weshalb grosse Hoffnung in die historische Semantik mittels computerlinguistischer Methoden gesetzt werden. Für Textanalysen wird deshalb die Häufigkeit von Begriffen bestimmt (frequency analysis), man könnte aber auch grammatikalische Strukturen untersuchen, was die Begriffsgeschichte wesentlich verfeinern würde. Natürlich bleibt am Ende die Kontextualisierung von Begriffen eine Leistung, welche keiner noch so schlauen Maschine überlassen werden wird. Wir folgen dem Verständnis von Michael Piotrowski in dieser Ausgabe. Piotrowski versteht unter den angewandten Digital Humanities die Anwendung formaler Modelle, ohne dass sich die Fragestellung zur traditionellen Geschichtswissenschaft ändern würde.

Den Wert einer solchen anwendungsorientierten Methodologie soll kurz für die Politikgeschichte skizziert werden. Politikgeschichte – lange etwas stiefmütterlich behandelt – hat sich in jüngerer Zeit als Kulturgeschichte des Politischen erfunden, methodisch geht sie dabei in Richtung historische Semantik. (2) Damit wird die Relevanz politischer Kommunikation deutlich. Die Frage, wie, wo zu welcher Zeit politische Begriffe in Dokumenten auftauchen und mit welchen Absichten die Begriffe in den öffentlichen Diskurs eindringen, ermöglicht neue Erkenntnisse. So baut etwa der Staat in der Nachkriegszeit seine Aktivitäten laufend aus, befeuert durch den Wettbewerb der politischen, gesellschaftlichen und ökomischen Systeme in der Periode des Kalten Kriegs. Nicht nur der Sozialstaat wird in dieser Phase munter ausgebaut, es werden laufend neue Politikfelder kreiert. Oder es wird in einem umfassenden Sinne konzeptionell ein «social engeneering» betrieben, nicht zuletzt im Ringen um den Systemwettbewerb. Beispielhaft wird dies erkennbar im Bereich der Wissenschaftspolitik, wo einerseits der Zugang zu den Hochschulen sowie die staatliche Forschungsförderung ökonomisch legitimiert wird. Dies erfordert von der Politik eine Neubeurteilung der Ausgabenpolitik.

Basis sind maschinenlesbare Texte

Dank eines Digitalisierungsprojektes der Amtsdruckschriften durch das Schweizerische Bundesarchiv stehen der Forschung ortsunabhängig riesige maschinenlesbare Textmengen zur Verfügung aus der Zeit, als die amtlichen Berichte nur gedruckt erschienen waren. Im Bundesblatt werden seit der Gründung des Bundesstaates Botschaften des Bundesrates zu Verfassungs- oder Gesetzesänderungen, zu Volksabstimmungen oder zu anderen Tätigkeiten der Regierung wöchentlich veröffentlicht. Diese Berichte sind seit bald 20 Jahren zugänglich. (3)

Abbildung: Digitalisierte Amtsdruckschriften des Schweizerischen Bundesarchivs: Suche nach “Wissenschaftspolitik”, erste 6 Treffer

Dank dieser digitalisierten (seriellen) Quelle lässt sich eine Begriffsabfrage durchführen. Der Begriff “Wissenschaftspolitik” taucht in Bundesblatt zum ersten Mal 1964 auf (im Jahr zuvor bereits in einem Protokoll des Bundesrates). In dieser Botschaft bittet der Bundesrat das Parlament darum, die Finanzierung der Stiftung Schweizerischer Nationalfonds fortzuführen. An sich handelt es sich um nichts Aussergewöhnliches – Forschungsgelder an den SNF werden seit über zehn Jahren ausgerichtet, doch der Begriff der Wissenschaftspolitik ist neu, was im Dokument selber thematisiert wird. Es heisst dort:

Überall auf der Welt steigt der Finanzbedarf für die Förderung der Forschung und Entwicklung an, und nicht nur die Verantwortlichen für den Staatshaushalt, sondern auch alle grossen Privatunternehmen fragen sich mit Recht, wohin uns der Weg führen wird. Es wird daher allgemein der Ruf nach einer Wissenschafts-Politik erhoben.

Ganz offensichtlich reflektiert die Verwaltung, welche den Text zu Handen von Regierung und Parlament verfasst hat, über das Framing eines Politikfelds. Damit kann – und das ist ja die Aufgabe der Geschichtswissenschaft – eindeutig eine Aussage gemacht werden, dass Mitte der 1960er Jahre ein neuer Begriff in den politischen Diskurs eingeführt wird, der erst noch gewöhnungsbedürftig ist. Ähnlich auch der Begriff «Bildungsinvestition», der fast zeitgleich im Kontext um eine Neuordnung des Stipendienwesens auftaucht. (4) Welches die Hintergründe dieser begrifflichen Neuschöpfungen sind, muss aus den Textquellen selber eruiert werden. Damit ist zwar im Sinne des oben zitierten Beitrags von Piotrowski noch kein Modell für eine digitale Geschichtsschreibung entwickelt, doch der Weg ist nicht mehr weit dazu. Denn durch die Versprachlichung sind Begriffe für das soziale Wissen wirklicher als die materielle Realität. Und deshalb ist es für die Periodisierung – also das Kerngeschäft des Historikers – eminent, genau in Erfahrung zu bringen, wann und in welchem Kontext ein Begriff aus der politischen Kommunikation zum ersten Mal auftaucht.


Referenzen

  1. Silke Schwandt (2018): Digitale Methoden für die Historische Semantik. Auf den Spuren von Begriffen in digitalen Korpora, in: Geschichte und Gesellschaft – Zeitschrift für Historische Sozialwissenschaft (44/1), S. 107–134.
  2. Margrit Pernau (2018): (Einführung) Neue Wege der Begriffsgeschichte, in: Geschichte und Gesellschaft – Zeitschrift für Historische Sozialwissenschaft (44/1), S. 5-28.
  3. Schweizerisches Bundesarchiv: Amtsdruckschriften und weitere digitalisierte Unterlagen
  4. Allgemein zur Wissenschaftspolitik, vgl. Thomas Gees (2016): Viel Diskurs – wenig Steuerung. Schweizer Wissenschaftspolitik in der Mehrebenenrealität, in Rothen, Christina et al (Hrsg.): Staatlichkeit in der Schweiz Regieren und verwalten vor der neoliberalen Wende, Zürich – Chronos.
PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Semantische Suchabfragen mit der Linked Open Data Cloud generieren

“S-O-WAS” – Semantic-and -Ontology-based-Web-Applications-Searchform” erlaubt die maschinengestützte Formulierung von semantischen Suchanfragen in normierten Metadatenfeldern, gezeigt am Beispiel einer Autoren- und Schlagwortsuche mittels Identifikator der Gemeinsamen Normdatei. Unsere AutorInnen haben eine Konzeptstudie während des OpenGLAM.at Kulturhackathons 2018 erarbeitet.

Die zahlreichen und vielfältigen Bestände von Galleries, Libraries, Archives and Museums (GLAM) sind im Laufe von Jahrhunderten entstanden. Die umfangreichen Sammlungen stellen KuratorInnen vor die Aufgabe, geeignete Ordnungsprinzipien zu etablieren und effiziente Suchmöglichkeiten anzubieten. Eine besondere Herausforderung stellen Rechercheanfragen dar, die selbst Ungenauigkeiten bergen oder mit Unbekannten operieren. Dem klassischen enzyklopädischen Weg einer Vorrecherche kann mittels semantischer Suchabfragen aus Linked-Open-Data-Quellen eine moderne Alternative entgegengestellt werden. In Verbindung mit dem in GLAM-Institutionen verbreiteten Einsatz von Normdaten1 zur Beschreibung von geistigen Schöpfern, mitwirkenden Personen und unterschiedlichen Schlagworten können solche Suchabfragen abseits einer potentiell unscharfen Textsuche auch durch den Einsatz von Normdaten-Identifikatoren eine hohe Trefferpräzision erreichen.

Unscharfe Suche in scharfen Metadaten

Die Beschreibung von Bestandsobjekten in GLAM-Institutionen hat eine lange Tradition und baut auf allgemein verbreiteten Regelwerken und Standards auf.2 Diese Metadaten bilden dann bereits einen Textkörper, der dann auch mit Volltextelementen wie Beschreibungen, Abstracts ergänzt werden kann. Die Indexierung der verfügbaren Textbausteine erlaubt eine Textsuche. Die grösste Herausforderung dabei ist die Genauigkeit, die mit Hilfe von Methoden der Informationswissenschaft gemessen wird. Eine der häufig verwendeten Methoden ist, mit dem sogenannten F-Mass sowohl Genauigkeit (precision) als auch Trefferquote (recall) gewichtet zu ermitteln, so dass die Ergebnisliste möglichst wenige unerwünschte Objekte enthält (“false positives”) und andererseits möglichst wenige gewünschte Objekte ausgelassen werden (“false negatives”).

Die Verschlagwortung im speziellen und die Nutzung von Normdaten auch im Bereich formaler Beschreibungen, wie bei den an einem Bestandsobjekt beteiligten Personen, dient nun dem Zweck, diese Genauigkeit bei der Suche zu verbessern. Statt einer rein technischen Extraktion von Wörtern werden diese im inhaltlichen Bereich intellektuell zugewiesen. Das Wort “Logikkalkül” ist dann nicht einfach nur ein Wort, das zufällig im Text auftaucht, sondern es beschreibt einen wissenschaftlichen Themenbereich, der dem Bestandsobjekt (hier beispielsweise ein Buch über Logik) bewusst zugeordnet wird. Ist der Suchbegriff Teil der Schlagwortliste, so liegt es nahe, die Relevanz gegenüber den Objekten, die den Begriff nur beinhalten, höher einzustufen. In formalen Fragen helfen Normdateien bei der Suche nach Personen, diese eindeutig, trotz häufig vorkommender vollständig identer Namen zu unterscheiden und die Genauigkeit der Recherche zu erhöhen.

Das Semantic Web hilft

In vielen GLAMs wird die manuelle Verschlagwortung durch eine wachsende Anzahl von Einzelobjekten zunehmend schwieriger. In den Bibliotheken betrifft dies vor allem die neuen Netzpublikationen3 , die aus diesem Grund zunehmend mit maschineller Unterstützungen verschlagwortet werden (Faden und Gross 2010; Hinrichs et al. 2016). Eine der grössten Herausforderungen der automatisierten Verschlagwortung ist dabei, eine mit der manuellen Verschlagwortung vergleichbare Qualität zu erreichen.

Das Ziel der hier vorgestellten Überlegungen ist es, die manuell vergebenen, aber normierten Metadaten für eine präzise Suche in den Beständen der GLAMs zu nutzen. Mit Hilfe von Semantic Web Suchtechnologien und auf der Basis der in der Linked-Open-Data-Cloud verfügbaren Daten wird zunächst eine Suche nach Personen durchgeführt, die anschliessend mit einer Suche im Bestandskatalog nach Einzelobjekten auf der Basis manuell vergebener Schlagworte verknüpft wird. Bibliotheken, Sammlungen, Archive und Museen können auf diese Weise das Potential ihrer Metadaten, wie beispielsweise der manuell und aufwändig vergebenen Schlagworte, besser nutzen und mit Hilfe des Werkzeugs “S-O-WAS” ihrem Publikum eine semantische Suche ermöglichen.

Zur Ermöglichung einer semantischen Suche soll zunächst der Informationsreichtum der Linked Open Data Cloud genutzt werden. Insbesondere steht dabei die freie Wissensdatenbank Wikidata4 im Vordergrund, die eine umfangreiche Sammlung von Objekten beinhaltet, die das Wissen in Form von Aussagen und Fakten über diese Objekte strukturiert. Um die Nutzung der Wissensdatenbank zu ermöglichen, stellt Wikidata unter anderem eine Schnittstelle für die Abfrage der Daten mit der Abfragesprache SPARQL5 bereit.

Die Funktionsweise der Abfrage wird im Folgenden anhand eines konkreten Beispiels erläutert.

Semantische Suche nach Personen

Nehmen wir zum Beispiel an, es wird nach einer Person gesucht, die bestimmte Kriterien erfüllen soll. Der Name der Person sei zunächst nicht bekannt. Zum Einen wissen wir, dass die Person ein Autor (männlich) ist, was jedoch zunächst keine Rolle spielt. Wir wissen, dass diese Person im 19. Jahrhundert geboren wurde, in Grossbritannien lebte und von Beruf Mathematiker war. Das Venn-Diagramm in Abbildung 1 veranschaulicht die Einschränkung auf eine diesen Kriterien entsprechende Schnittmenge.

Abbildung 1: Person, lebte in Grossbritannien, geboren im 19. Jahrhundert, Mathematiker.

 

Allein mit Hilfe dieser Kriterien lässt sich eine semantische Abfrage formulieren, die als Ergebnis eine Liste der Personen zurückliefert, die den Kriterien entsprechen:

  •  SELECT DISTINCT ?Person ?PersonLabel ?GND WHERE {
  • SERVICE wikibase:label { bd:serviceParam wikibase:language “(AUTO_LANGUAGE),en”. }
  • ?Person wdt:P27 wd:Q145.
  • ?Person wdt:P569 ?Gebdatum.
  • ?Person wdt:P21 wd:Q6581097.
  • ?Person wdt:P227 ?GND.
  • ?Person (wdt:P106/wdt:P279*) ?Beruf. FILTER(?Beruf IN(wd:Q14565331, wd:Q4964182)). FILTER NOT EXISTS {?Person wdt:P106 wd:Q49757. } FILTER((YEAR(?Gebdatum)) >= 1800)
  • FILTER((YEAR(?Gebdatum)) < 1900) }

Betrachten wir zum Beispiel einen Teil der Abfrage, der die Abfragekriterien enthält: ?Person wdt:P27 wd:Q145.

Es wird ersichtlich, dass nicht die Bezeichner selbst, sondern Identifier für Objekte (beginnend mit “Q”) und Prädikate (beginnend mit „P“) verwendet werden. In diesem Teil der Abfrage bezieht sich ?Person auf die gesuchte Entität, die in der ersten Zeile als Variable definiert wurde, Q145 referenziert das Objekt “United Kingdom” und P106 repräsentiert das Prädikat “country of citizenship”. Die Eigenschaften von Objekten und Prädikaten (z.B. Bezeichner in anderen Sprachen) können auf der Wikidata-Seite zum Objekt (hier Q1456) oder zum Prädikat (hier P1067) eingesehen werden.

Das Ergebnis8 der Abfrage ist (erstellt am 26. September 2018) eine Liste von 71 Personen, beginnend mit den folgenden 4 Personen:

Wikidata-ID Personenname (WikidataLabel) GND-ID
1.    wd:Q334846 Edmund Allenby, 1st Viscount Allenby 119161311
2.    wd:Q722472 Homer H. Dubs 11623167X
3.    wd:Q725050 John Burnet 117175056
4.    wd:Q310794 Karl Pearson 118982141

Dieses Ergebnis diente der vorläufigen Einschränkung des Suchraumes mit Hilfe logisch-semantischer Bedingungen. Im Folgenden wird gezeigt, wie dieses Ergebnis mit Hilfe einer konkreten Abfrage in Bezug auf Bestandsobjekte von GLAMs bzw. hier konkret in Bezug auf Werke einer Bibliothek genutzt werden kann.

Suche nach Unterbegriffen

Im letzten Abschnitt haben wir ein Suchbeispiel vorgestellt, in welchem nach einer Person gesucht wird. Stellen wir uns nun vor, dass wir spezifischer nach einem Autor suchen, der ein Werk verfasst hat, das inhaltlich im Feld der Logik angesiedelt ist, und dass wir aufgrund der Spezialisierung davon ausgehen können, dass eines der in relevanten Werken vergebenen Schlagworte ein Unterbegriff von Logik (z.B. Aussagenlogik, Prädikatenlogik, etc.) ist. Im deutschen Sprachraum findet die sogenannte Gemeinsame Normdatei (GND) verbreitet Anwendung. Diese ist nicht nur eine Begriffssammlung, sondern stellt zugleich auch eine Ontologie dar. Diese ermöglicht es uns beispielsweise innerhalb der Sachschlagwörter der GND nach über- oder untergeordneten Begriffen zu recherchieren. Mit der Plattform lobid.org steht eine frei nutzbare REST-API9 zur Verfügung, die es erlaubt, die GND maschinenlesbar abzufragen. Dies ermöglicht bei Kenntnis der Feldstruktur eines indexierten Dokumentes, den Aufbau komplexer Suchabfragen durch Eingabe der jeweiligen Feld-/”Spalten”namen.10

Die Suche nach Sachschlagwörtern, deren übergeordneter Begriff Logik ist, hat als HTTP-Request die folgende Form: http://lobid.org/gnd/search?q=type%3ASubjectHeading+AND+broaderTermGener%20al.label%3ALogik&format=json&size=120

An die REST-Schnittstelle von lobid.org werden hier drei Paramter übergeben:

  • q: übergibt die eigentliche Suchabfrage.
    • type=SubjectHeading – sucht nach GND-Einträgen die Sachschlagwörter darstellen
    • broaderTermGeneral.label=Logik sucht nach Einträgen deren übergeordneter Begriff Logik enthält.
  • format: definiert das auszugebende Format des Ergebnisses
  • size: Anzahl der zurückgegebenen Treffer einer Anfrage

Aus dem Ergebnis kann für die weiterführende Suche im Zielkatalog je nach Sinnhaftigkeit und Einsatzmöglichkeit der Identifier des Begriffes oder aber auch die Ansetzungsform des Schlagwortes verwendet werden.

Verknüpfung der Personen- mit der Schlagwortsuche

Die in den beiden zuvor gezeigten Schritten maschinenlesbar gewonnen Ergebnisse erlauben nun die anfänglich unscharfe Suchabfrage in Form eines Suchbefehls zu bringen, der die einzelnen Schlagwörter mit den jeweiligen Autoren kombiniert, idealerweise sogar ausschliesslich durch die Verwendung von Identifikatoren der im Zielkatalog der Institution eingesetzten Normdatei.

Eine Voraussetzung für die Implementierung ist, dass für die in den Bestandsmetadaten existierenden Schlagworte die entsprechenden GND Identifier angereichert werden. Bezüglich der methodisch vergebenen Sachschlagwörter kann eine eindeutige Zuweisung durch die Lobid-Abfrage erreicht werden. Kommen jedoch frei vergebene Schlagworte oder Personennamen hinzu, so müssen die Terme eventuell durch Hinzuziehen vonKontext-Informationen disambiguiert werden. Die Anreicherung der Metadaten mit Schlagwort-GND-Identifiern kann unabhängig von der späteren Abfrage auf dem gesamten Metadatenbestand im Vorhinein durchgeführt werden.

In Abbildung 2 wird der Ablauf beginnend von der Formulierung der Suchanfrage bis zur Ergebnisdarstellung schematisch dargestellt. Der horizontale Querbalken im unteren Bereich der Grafik stellt die Systemgrenze dar. Die oder der BenutzerIn formuliert eine Abfrage mit den semantischen Bedingungen und dem konkreten Begriff zu einem Sachgebiet.

Der QueryBuilder ist eine Komponente, die aus der Suchanfrage die Systemanfragen sowohl an die lobid-API als auch an Wikidata generiert.

Die Semantische Abfrage wird als SPARQL-Abfrage an die Wikidata geschickt (Schritt 1a und 2a in Abbildung 2), die als Ergebnis die Menge der Wikidata-Identifier IP der Menge der Personen P=(p1, p2, …, pn) liefert, die den semantischen Kriterien entsprechen.

IP=(gndp1, gndp2, …, gndpn)

Im ersten Schritt wird die Menge der GND-Identifier I der Unterbegriffe Us=(u1, u2, …, un) zum Themengebiet s (in diesem Beispiel s=”Logik”) mit Hilfe der lobid-API in Form einer REST-Abfrage ermittelt (Schritt 1b und 2b in Abbildung 2).

IUs=(gndu1, gndu2, …, gndun)

Unter der Voraussetzung, dass in den Metadaten eines Bestandsobjekts r die GND-Identifier IAr für Personen (=AutorInnen) und die GND-Identifier ISr für Sachschlagworte zugewiesen sind, ist die Ergebnismenge R=(r1, r2, …, rn) der Bestandsobjekte dadurch definiert, dass mindestens ein Autor ip unter den Autoren schlagworten IAr und mindestens ein Unterbegriff iu unter den Schlagworten ISr in den Metadaten des Bestandsobjekts vorhanden sein muss (Schritt 3 und 4 in Abbildung 2):

R = {r | Ǝ ip ∈  IAr ∧  Ǝ iu ∈  ISr r}

Abbildung 2: Schema der Generierung eine Suchmaschine mittels Linked Open Data Quellen

Verwandte Arbeiten

Die Verwendung von Wikidata zur Community-basierten Zuordnung von Namen und anderen Entitäten aus Normdateien wurde von Joachim Neubert vorgestellt (Neubert, 2017). Der wesentliche Unterschied ist, dass die externen Identifier selbst, die eine Organisation verwaltet, in die Wikidata integriert werden. Auf diese Weise können dann Links zurück auf das Bestandsobjekt im Katalog generiert werden (Lemus-Rojas et al., 2018).

Ausblick

Die während des zweiten openglam.at Kulturhackathons 201811 entstandenen und hier dargestellten konzeptuellen Überlegungen zeigen die Innovationspotentiale von Linked Open Data (LOD) in GLAM-Institutionen auf, und zwar in der Verbindung zwischen externen LOD-Quellen und lokalen, klassischen textbasierten Suchmöglichkeiten der jeweiligen Institutionen. Letztere haben durch ihre langjährige Erfahrung und den Einsatz normierter Datenbestände wie der gemeinsamen Normdatei (und ihrer Vorgängerkorpora) eine nicht zu unterschätzende Grundlage für die Kopplung an moderne Open Data Tools geschaffen.

Die freie Wissensdatenbank Wikidata erlaubt mit SPARQL auch komplexe Anfrage formulieren zu können und bietet die Möglichkeit GND-IDs als Antwort zu senden. Mit der freien Plattform lobid.org/gnd kann die GND selbst auf simple Art und Weise auch in ihrer Ontologie maschinenlesbar durchsucht werden. Eine Query-Builder-Applikation steuert entsprechende Anfragen und bereitet diese vor, kombiniert die aus LOD-Cloud stammenden Antworten und baut eine Suchabfrage an den lokalen Bestandskatalog vor.


Referenzen

1 Für den deutschen Sprachraum bildet die gemeinsame Normdatei (http://www.dnb.de/DE/Standardisierung/GND/gnd_node.html) einen weitverbreiten Standard.

2 Im Bibliotheksbereich gelten beispielsweise für die formale Katalogisierung RDA (Ressource Description and Access) oder RAK (Regeln für den alphabetischen Katalog) oder für die inhaltlichen Beschreibung RSWK (Regeln für den Schlagwortkatalog).

3 Bei der Deutschen Nationalbibliothek: Reihe O: http://www.dnb.de/DE/Service/DigitaleDienste/DNBBibliografie/reiheO.html

4 www.Wikidata.org

5 https://www.w3.org/TR/rdf-sparql-query/

6 https://www.Wikidata.org/wiki/Q145

7 https://www.Wikidata.org/wiki/Property:P27

8 Ergebnis in Echtzeit abrufbar unter: http://tinyurl.com/y7l3wh4n

9 http://lobid.org/gnd/api

10 Aufbau erweiterter Suchabfragen übersichtlich erklärt: http://blog.lobid.org/2018/07/06/lobid-gnd-queries.html

11 http://www.openglam.at


Weiterführende Literatur

Faden, Manfred; Gross, Thomas: Automatische Indexierung elektronischer Dokumente an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften. In: Bibliotheksdienst 44 (2010), Nr. 12, S. 1120 – 1135.

Hinrichs, I., Milmeister, G., Schäuble, P., & Steenweg, H. (2016). Computerunterstützte Sacherschliessung mit dem Digitalen Assistenten (DA-2). O-Bib. Das Offene Bibliotheksjournal / Herausgegeben Vom VDB, 3(4), 156-185.

Neubert, J. Wikidata as a Linking Hub for Knowledge Organization Systems? Integrating an Authority Mapping into Wikidata and Learning Lessons for KOS Mappings NKOS@TPDL, CEUR-WS.org, 2017, 1937, 14-25.

Lemus-Rojas, M., Pintscher, L. (2018). Wikidata and Libraries: Facilitating Open Knowledge. In M. Proffitt (Ed.), Leveraging Wikipedia: Connecting Communities of Knowledge (pp. 143-158). Chicago, IL: ALA Editions.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.