Beiträge

Wenn da Vinci Pate steht für einen Kulturhackathon

Leonardo da Vinci war transdisziplinär und seiner Zeit voraus. Bis heute ist das Universalgenie immer wieder Vorbild. Unser Autor beschreibt gelungene Anwendungen aus offenen Daten aus Kultur- und Gedächtnisinstitutionen, die seinen Geist atmen und am Kulturhackathon “Coding da Vinci” entstanden sind.

Der Rennaissance-Maler ist nicht nur der Schöpfer der Mona Lisa mit ihrem rätselhaften Lächeln. Zeit seines Lebens (1452–1519) widmete sich Leonardo da Vinci neben der Malerei mathematischen, physikalischen und anatomischen Forschungen, er erfand Fluggeräte und experimentierte mit der Energiegewinnung aus Sonnenlicht. Seine Notizbücher, Zeichnungen und Skizzen umfassen mehr als 6.000 Blätter voller Beobachtungen, Entwürfe und Illustrationen zu Biologie, Kosmologie, Architektur und Technik.

Auch 500 Jahre später steckt an der Schnittstelle von Kunst und Tüftelei viel Potenzial. Insbesondere offene Kulturdaten bieten vielfältige Möglichkeiten für eine kreative Auseinandersetzung mit dem kulturellen Erbe – von spielerischen bis erkenntnisgenerierenden Ansätzen. Diesem Thema hat sich der nach dem Renaissance-Künstler und Universalgelehrten benannte Kultur-Hackathon Coding da Vinci verschrieben. Kultur- und Gedächtnisinstitutionen stellen das Material: Datensätze wie digitalisierte Gemälde, Fotos, Audiodateien oder 3D-Objekte einschließlich ihrer Metadaten in offenen Formaten und unter offenen Lizenzen. Erst diese Offenheit eröffnet die Möglichkeit einer weitreichenden Nachnutzbarkeit. Dann sind EntwicklerInnen, DesignerInnen, KünstlerInnen, GamerInnen und Kultur(-daten)begeisterte eingeladen, in interdisziplinären Teams Prototypen für Anwendungen wie mobile Websites, Apps, interaktive Spiele und mehr zu entwickeln. Die besten Ideen werden jeweils ausgezeichnet, wie im Video vom Anlass zu sehen ist.

Technikaffine treffen Kreative

Bild 2: Das Projekt Antlitz Ninja.

Seit 2014 vernetzt Coding da Vinci auf diese Weise technikaffine und kulturbegeisterte Communities mit deutschen Kulturinstitutionen aller Sparten. Der Hackathon wurde von der Deutschen Digitalen Bibliothek, der Open Knowledge Foundation Deutschland e.V., dem Forschungs- und Kompetenzzentrum Digitalisierung Berlin und Wikimedia Deutschland e.V. ins Leben gerufen. Seit dem diesem Jahr wird er als gemeinsames Projekt im Programm Kultur Digital der Kulturstiftung des Bundes über vier Jahre gefördert. Der Kultur-Hackathon hat sich in den letzten Jahren in Deutschland zu einem fest etablierten Teil der Szene für offene Kulturdaten entwickelt.

Coding da Vinci zeichnet sich durch sein spezifisches Format aus: Während die meisten anderen Hackathons im Stile eines „Marathons“ meist an einem Tag oder Wochenende durchgeführt werden, erstrecken sich die von regionalen Veranstalterteams ausgerichteten Hackathons von Coding da Vinci über eine Zeitspanne von sechs bis zehn Wochen. Erst so wird es möglich, dass sich die oft getrennten Welten kreativer Technologieentwicklung und institutioneller Kulturbewahrung treffen können, um in einen Austausch zu treten und voneinander zu lernen. Über 100 Kultur- und Gedächtnisinstitutionen aus Deutschland und teilweise Europa haben bislang als Datengeber teilgenommen. Es wurden ebenso viele Projekte entwickelt, deren Vielfalt hier nur durch ein paar Beispiele aus dem Kreis der Gewinner der letzten Jahre illustriert werden soll.

  • Die App Zeitblick beruht darauf, dass ein Selfie in Sekundenschnelle durch ein im Gesichtsausdruck möglichst ähnliches historisches Bild ersetzt wird. Hierfür greift eine Gesichtserkennungssoftware auf eine Datenbank mit über 1.300 Gesichtern aus dem offenen Bildarchiv des Museums für Kunst und Gewerbe Hamburg zu. Selbstverständlich lassen sich diese DoppelgängerInnen aus der Kunst dann über Social Media auch mit anderen teilen.
  • Das Projekt Berliner MauAR macht das Smartphone zur Zeitmaschine, indem es die Berliner Mauer mittels Augmented Reality und GPS-Lokalisierung in historischen Bildern wieder an den Originalorten erscheinen lässt. Zu den Fotos der Stiftung Berliner Mauer lassen sich Texte öffnen, die tiefere Einblicke in die Geschichte Berlins geben.
  • Das Virtual-Reality-Projekt Skelex nutzt 3D-Scans von biologischen Sammlungsobjekten des Museums für Naturkunde Berlin und präsentiert sie in einem virtuellen Museumsraum. Dort kann man an einem Schlangenkopf all das ausprobieren, was im Museum sonst streng verboten ist: anfassen, drehen, in einem Explosions-Diagramm auseinander nehmen, vermessen und anderes mehr.
  • JibJib ist eine App, die Vogelstimmen erkennt. Mit Machine Learning und einem Trainingsdatensatz bestehend aus mehr als 80.000 Audioaufnahmen aus dem Tierstimmenarchiv des Museums für Naturkunde Berlin ist die App in der Lage, etwa 200 verschiedene Vögel zu unterscheiden.
  • Antlitz Ninja ist eine spielerische Webanwendung, die es ermöglicht, Gesichtspartien aus Werken der Kunstgeschichte aus der Sammlung des Städel Museums in Collagen neu zu kombinieren. Der kreative Prozess der Rekombination dreier zufällig ausgewählter Bildausschnitte lenkt den Blick auf die Details der historischen Kunstwerke. Die eigenen Kompositionen lassen sich dann auch herunterladen.

Alle diese Projekte stehen ebenso wie die darin genutzten Daten unter offenen Lizenzen und können daher frei genutzt und weiterentwickelt werden. Lust bekommen? Eine Übersicht der Projekte und der verwendeten Daten sind im Projektportal zu finden.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

«Daten als Infrastruktur werden Realität sein»

Der Verein opendata.ch hat gestern Abend einen neuen Präsidenten gewählt. Andreas Kellerhals, der frühere Direktor des Bundesarchivs übernimmt das Amt des scheidenden André Golliez. Ein Gespräch über die neue Strategie des Vereins.

Herr Kellerhals, Sie waren bis Januar dieses Jahres Direktor des Bundesarchivs, noch bis Ende Jahr sind Sie Beauftragter des Bundes für OGD und nun wurden Sie zum Präsidenten von opendata.ch  gewählt– was ist Ihre Motivation?

Andreas Kellerhals

Andreas Kellerhals: Mit dem Abschluss der Redaktion der neuen Strategie ist auch meine Arbeit als Beauftragter für OGD abgeschlossen. Ich werde ab Jahresbeginn im Ruhestand sein und kann mich voll und ganz opendata.ch widmen, ohne dass mein Amt in Konflikt geraten könnte mit weiteren beruflichen Verpflichtungen. Das Thema Open Data beschäftigt mich schon seit der ersten Open Data Konferenz in der Schweiz 2011 im Schweizerischen Bundesarchiv. Ich war massgeblich verantwortlich für die Realisierung des ersten gesamtschweizerischen Portals opendata.admin.ch (2013) bzw. von dessen Nachfolgeportal opendata.swiss (2016).
Bei diesen Projekten bemühte ich mich vor allem auch darum, möglichst viele Daten zu publizieren und auf dem Portal zu referenzieren sowie die Nutzung dieser Daten anzuregen. Zu einer wirksamen Förderung einer Open Data-Kultur, wie das schon in der ersten bundesrätlichen Strategie geheissen hat, fehlten damals leider die nötigen Mittel. Aber die Plattform und die bis heute publizierten Datensätze sind dennoch ein ziemlicher Erfolg. Es ist jedoch auch klar, dass sowohl publikationsseitig wie nutzungsseitig noch vieles zu tun bleibt. Da will opendata.ch unterstützen und anregen. Die weitere Entwicklung sollte nicht einfach angebotsseitig, sondern im Dialog mit allen Stakeholdern definiert werden. Da gibt es also viele Betätigungsfelder, die ein Engagement lohnen.

Wie profitieren Sie von Ihren vorherigen Ämtern, und wie sieht Ihr Ideal aus?

Die Erfahrungen aus der Verwaltung, aus dem Prozess der Strategiedefinition ebenso wie aus der konkreten Arbeit der Strategieumsetzung halte ich für eine gute Voraussetzung, um das bisher schon erfolgreiche Werk von opendata.ch weiterzuführen. Das Ideal ist immer noch eine transparentere Welt mit klar wahrgenommenen Verantwortlichkeiten und folglich auch einer selbstverständlichen Rechenschaftsbereitschaft, in der Lösungen partizipativ entwickelt und Ideen im Dialog umgesetzt werden.

Was wollen Sie als Präsident mit dem Verein erreichen – Stichwort neue Strategie?

Die neue Strategie von opendata.ch – ebenso wie die neue Strategie des Bundesrates – orientiert sich eigentlich immer noch an den gleichen „grossen“ Zielen: mehr Transparenz, mehr Partizipation, bessere Rechenschaftsfähigkeit – der allgemeine Kontext der Open Data Bewegung bleibt auch weiterhin der massgebliche Bezugsrahmen. Für die Umsetzung muss alles konkreter und damit automatisch auch bescheidener formuliert werden, aber die Ambitionen bleiben: Es ist klar mein Ziel, mit opendata.ch dazu beizutragen, dass mehr Daten publiziert werden. Alle neuen Daten sollten automatisch als offene Daten genutzt werden können und auch die bereits bestehenden sollten, wenn möglich thematisch aufeinander abgestimmt und nachfrageorientiert, offen publiziert werden.

Generell geht es mir darum, dass dank offener Verwaltungsdaten nicht nur an Abstimmungssonntagen Demokratie praktiziert wird, sondern bereits viel früher in Verwaltungsprozessen eine breite Partizipation der Betroffenen und Beteiligten möglich wird.

Die publizierten Daten sollen ausreichend beschrieben sein und in nutzbaren Formaten vorliegen, d.h. vorzugsweise als Linked Open Data. Daneben gibt es natürlich noch die Fragen der rechtlichen und finanziell unentgeltlichen Zugänglichkeit. Zu deren Lösung kann opendata.ch einiges beitragen. Weiterer Schwerpunkt muss zudem die Förderung der so genannten Digital Skills und der Data Literacy sein, ohne die ein kompetenter Umgang mit Daten nicht möglich ist. Auch dazu hat opendata.ch schon viel geleistet und wird dies auch künftig tun.

Ein Blick in die Zukunft: die Schweiz in 10 Jahren im Bereich Open Data und OpenGLAM – Ihre Vision?

In zehn Jahren werden alle Verwaltungsdaten von Bund, Kantonen und Gemeinden als offene Verwaltungsdaten publiziert und die schon bestehenden Datenbestände, an denen sich ein öffentliches Interesse manifestiert hat, sind ebenfalls frei zugänglich. Daten als Infrastruktur werden weltweit Realität sein und die Schweiz wird eine gute Position in diesem Daten-Ökosystem einnehmen. Daten aus dem GLAM-Bereich müssen unbedingt dazu gehören. Alle diese Daten werden rege genutzt, sowohl in demokratischer Absicht, zu Bildungszwecken oder auch mit wirtschaftlichen Zielsetzungen.

Wenn Sie speziell den GLAM-Bereich ansprechen, dann sind viele Nutzungsmöglichkeiten denkbar, aktuell in politischer Perspektive z.B. speziell auch für die Provenienzforschung resp. den transparenten Provenienznachweis.

Generell geht es mir darum, dass dank offener Verwaltungsdaten nicht nur an Abstimmungssonntagen Demokratie praktiziert wird, sondern bereits viel früher in Verwaltungsprozessen eine breite Partizipation der Betroffenen und Beteiligten möglich wird. Ausserdem werden in zehn Jahren neue wirtschaftliche Aktivitäten Alltag geworden sein, die auch auf diesen Daten basieren und – vielleicht – werden sogar die Unternehmen gemerkt haben, dass die Publikation ihrer Daten nicht das Ende erfolgreicher Geschäftsführung bedeutet, sondern ein wichtiger Faktor für wirtschaftlichen Erfolg ist.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

How Wikidata Is Solving Its Chicken-or-Egg-Problem in the Field of Cultural Heritage

On 29 October 2018, Wikidata turned six. What was at its launch a fledgling project is today inspiring numerous people with new and surprising ideas about what could be achieved in a linked data world. In this article we will give a brief overview of how Wikidata is used in the heritage sector and how the community is doing in addressing the egg-and-hen-problem of linked open data.

Over the past years, a growing community has formed on Wikidata around heritage data. Its members are ingesting, cleansing and improving data; discussing data modelling issues; contacting new data providers and developing applications based on Wikidata. Their vision is for Wikidata to become a central hub for data integration, data enhancement and data management in the cultural heritage domain. According to the group’s mission statement, this includes:

  • “establishing Wikidata as a database that covers the entire world’s cultural heritage;
  • establishing Wikidata as a central hub that interlinks [heritage] collections around the world and provides links to bibliographic, genealogical, scientific and other collections of information and thereby functions as the ultimate authority file providing mapping information between these different collections;
  • fostering truly multilingual and global collaboration around the description and management of heritage data among people from various backgrounds;
  • leveraging synergies between institutions, helping them to reduce duplicate work;
  • encouraging debate in the community by highlighting and interrogating differences in perspective; and
  • providing a single source of data for some of the most popular web sites and apps, including Wikipedia infoboxes and lists” (Wikiproject Cultural heritage).”

As the last point makes it clear, the actual usefulness of the data comes with its use. Either in the form of services that are targeted at end users or by providing insights that are turned into stories that can be shared. To create a flourishing ecosystem of Wikidata-based applications running on high-quality data, a critical chicken-or-egg problem needs to be overcome: without complete and high-quality data, there are no cool apps. But without interesting apps, there are few incentives to provide data and to improve its quality. In other words: the main drivers of data quality and completeness are interesting and widely used applications, while the motivation to develop good apps is far greater if they can build upon a high-quality and complete data bases. In this article we will present a few of the things the Wikidata community is doing to address its chicken-or-egg problem.

Data Use in Wikipedia and other Wikimedia Projects

One of the basic ideas behind Wikidata was to create a central repository of structured data for Wikimedia projects, such as the free online-encyclopedia Wikipedia, Wikimedia Commons, and others. The immediate use of Wikidata in the context of Wikipedia can take the form of infoboxes or lists. An example of a Wikidata-powered infobox can be found in the Wikipedia article on Ferdinand de Saussure; it features an image and structured data that are partly pulled from Wikidata. An example of a Wikidata-powered list can be found in the Portuguese article about paintings by Alfredo Norfini.

Such infoboxes and lists are an immensely useful tool to eliminate the duplication of efforts across Wikipedia’s different language communities, as the data can be curated in a central database. At the same time, they have a large impact in terms of visibility of the data thanks to the prominence of Wikipedia on the Internet. Yet, some of the largest communities, such as the German or the English Wikipedia communities, which could generate substantial spill-overs into smaller language communities, have so far shown the biggest restraint when it comes to taking up Wikidata-powered infoboxes and lists on a broader scale. The arguments brought forward have mostly been related to data quality or to the fear of an exacerbation of the vandalism problem. Vandalism could indeed be encouraged by the high visibility of the centrally managed data and it might be difficult to counteract data manipulations. Many communities have indeed long questioned the adequacy of Wikidata’s edit tracking tools, which has triggered the improvement of these tools over the years. Some members of non-English communities may in addition feel uneasy about having to curate data on the Wikidata platform, which involves taking part in community discussions that predominantly take place in English. Furthermore, larger communities may expect fewer benefits from Wikidata than smaller communities, as they have already quite good data coverage in many areas thanks to established methods of data curation that were developed prior to the introduction of Wikidata.

On the other end of the spectrum, some of the smaller (or medium-sized) language communities, such as the Catalan Wikipedia, have been pioneers in this area, creating infobox templates with interactive maps, detailed career information for biographies and various other information directly fetched from Wikidata. In fact, in fall 2017 the Catalan community announced that over 50% of the 550’000 articles on Catalan Wikipedia were using data from Wikidata.

In addition to the direct inclusion of data from Wikidata in Wikipedia articles, Wikidata has also been used as a basis for the automatic generation of article stubs that could then be extended by Wikipedia editors. This approach is especially useful for harmonizing the structure of articles in specific areas. One of the tools for this is the “Mbabel Article Generator”, which was first developed for a New-York-based project, about museums, and was then extended by a Brazilian team to other classes of subjects, such as works of art, books, films, earthquakes, and journals. Here again, a Wikidata-based tool can help reduce the workload of Wikipedians by using centrally curated data that can be applied across language communities. Another tool that serves a similar purpose for biographical articles is “PrepBio”.

Data Use Beyond the Wiki-World

The use of Wikidata is not confined to Wikimedia projects alone. Here are few examples of uses of Wikidata outside the realm of the Wiki-world:

  • Points of interest. One prominent application is “Monumental”, a Wikidata-based web app which displays information related to historical monuments on a map. The app allows logged-in users to directly edit Wikidata and includes a Wikidata game for the matching of Wikidata entries with Wikimedia Commons categories. The app is used as part of “Wiki Loves Monuments” – the world’s largest photo competition. This contest has been accompanied by an effort to gather monument-related data in a centralized database which pre-dates Wikidata. This explains why the app has been able to provide good coverage of historical monuments for numerous countries. Monuments data is also used by “Panandâ”, a mobile app for the exploration of the cultural heritage of the Philippines based on the historical markers and commemorative plaques installed by the National Historical Commission. These types of apps could in the future be adapted to other areas where objects of interest are displayed on a map, e.g. museums, water-fountains, public artworks, cultural venues, etc.
  • Visual art. Another app that has been around for a while is “Crotos”. It builds upon the “Sum of All Paintings Project”, the first Wikidata project to clearly announce the goal of gathering data about all the cultural heritage of a specific kind. It provides a search and display engine for visual artworks, based on Wikidata and using Wikimedia Commons files. Search results can be filtered using work categories and time periods. Artworks can be displayed in random or chronological order. Like in Monumental, there is a contribution mode, which allows works with missing properties to be filtered, so that the information can be completed by the user.
  • Bibliographic data. Yet another area of cultural heritage is covered by “Scholia”, a web app that presents bibliographic information and scholarly profiles of authors and institutions using Wikidata. It is being developed in the framework of the larger WikiCite initiative, which seeks to index bibliographic metadata in Wikidata about resources that can be used to substantiate claims made on Wikidata, Wikipedia or elsewhere. While its intended scope is equally comprehensive as for the two previous examples, work is still at an early stage and Scholia is therefore biased due to its fragmentary data basis.
  • Thematic timelines. The most well-known application here is “Histropedia”, which uses data from Wikipedia and Wikidata to automatically generate interactive timelines with events linked to Wikipedia articles. Users can combine timelines and events to create their own custom timelines. The web app “Tempo-spatial display” adds another dimension by combining chronological and geographic information on a specific topic, including a timeline of events and a map.
  • New forms of access to heritage collections. Several applications help us explore heritage collections, such as “Collection Explorer” which focuses on a specific institution, “Manuscript Explorer” and “Astrolabe Explorer”, which focus on specific thematic areas or an app exploring the Sibthorp & Bauer Expedition and subsequent book: the Flora Greaca, a book full of beautiful illustrations which can be viewed via the app. Further applications provide new ways of access heritage collections: “Textes d’affiches” is a web app that links movie posters with the artistic works they are based on. It points users who are more familiar with the movies to the library content in the form of full-texts on the online platform of the National Library of France, and so giving film buffs more material for dinner party conversations! “Cultural History Baseball Cards” in turn allows users to navigate through both scholarly and cultural materials related to the players, managers, and executives who have shaped the game’s history. The number of other areas these applications could be adapted to is almost limitless.
  • Networks of people. The application “Ancient intellectual network” provides a visualization of the relationships between master and student from Socrates to the end of the Hellenistic period. There are also a few tools that can be used to visualize family trees and relationships, such as the “Ancestors Tool” and “GeneaWiki”. A network visualization feature has also been implemented on “Scholia”, covering current academic networks. Similar applications could be imagined for other types of relationships between people.
  • Collaborative cataloguing. A particularly interesting application is “Inventaire”, which caters to its own community of users who provide information about the books in their private collections, including the information under which conditions the books can be borrowed. This service is based on Wikidata and provides an excellent example how to exploit the symbiosis between a smaller community and Wikidata at large. The users of Inventaire are contributing to an ever-growing catalogue of books that is automatically integrated with the data from library catalogues that are amassed in Wikidata.
  • Wikidata as an authority file. As “Text razor“ demonstrates, Wikidata’s knowledge graph can be used for entity extraction (named entity recognition) and content categorization. In fact, Wikidata is playing more and more the role of an authority file by complementing long-established authority files from the heritage field, such as VIAF or GND, which are instrumental in disambiguating and interlinking entries in library catalogues and archival finding aids.

Concluding Remarks

As this article has shown, there is already a variety of Wikidata showcase applications in the field of cultural heritage, and activities to resolve Wikidata’s chicken-or-egg problem are well under way. As the examples also demonstrate, more efforts are needed to improve data quality and completeness. Most promising from this point of view are applications that are linked to campaigns to improve the underlying data, such as Monumental, or applications that encourage data provision and enhancement by community members, such as Inventaire or the use of Wikidata in Wikipedia. We can only hope that a positive feedback loop ensues from these first Wikidata-based applications, and that we will see many more and better apps in the future, along with concerted efforts to enhance the quality and completeness of the data – the prerequisites of exciting applications!


References

  1. “Wikidata, a rapidly growing global hub, turns five” (blog post by Andrew Lih and Robert Fernandez, 30 October 2017).
PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Semantische Suchabfragen mit der Linked Open Data Cloud generieren

“S-O-WAS” – Semantic-and -Ontology-based-Web-Applications-Searchform” erlaubt die maschinengestützte Formulierung von semantischen Suchanfragen in normierten Metadatenfeldern, gezeigt am Beispiel einer Autoren- und Schlagwortsuche mittels Identifikator der Gemeinsamen Normdatei. Unsere AutorInnen haben eine Konzeptstudie während des OpenGLAM.at Kulturhackathons 2018 erarbeitet.

Die zahlreichen und vielfältigen Bestände von Galleries, Libraries, Archives and Museums (GLAM) sind im Laufe von Jahrhunderten entstanden. Die umfangreichen Sammlungen stellen KuratorInnen vor die Aufgabe, geeignete Ordnungsprinzipien zu etablieren und effiziente Suchmöglichkeiten anzubieten. Eine besondere Herausforderung stellen Rechercheanfragen dar, die selbst Ungenauigkeiten bergen oder mit Unbekannten operieren. Dem klassischen enzyklopädischen Weg einer Vorrecherche kann mittels semantischer Suchabfragen aus Linked-Open-Data-Quellen eine moderne Alternative entgegengestellt werden. In Verbindung mit dem in GLAM-Institutionen verbreiteten Einsatz von Normdaten1 zur Beschreibung von geistigen Schöpfern, mitwirkenden Personen und unterschiedlichen Schlagworten können solche Suchabfragen abseits einer potentiell unscharfen Textsuche auch durch den Einsatz von Normdaten-Identifikatoren eine hohe Trefferpräzision erreichen.

Unscharfe Suche in scharfen Metadaten

Die Beschreibung von Bestandsobjekten in GLAM-Institutionen hat eine lange Tradition und baut auf allgemein verbreiteten Regelwerken und Standards auf.2 Diese Metadaten bilden dann bereits einen Textkörper, der dann auch mit Volltextelementen wie Beschreibungen, Abstracts ergänzt werden kann. Die Indexierung der verfügbaren Textbausteine erlaubt eine Textsuche. Die grösste Herausforderung dabei ist die Genauigkeit, die mit Hilfe von Methoden der Informationswissenschaft gemessen wird. Eine der häufig verwendeten Methoden ist, mit dem sogenannten F-Mass sowohl Genauigkeit (precision) als auch Trefferquote (recall) gewichtet zu ermitteln, so dass die Ergebnisliste möglichst wenige unerwünschte Objekte enthält (“false positives”) und andererseits möglichst wenige gewünschte Objekte ausgelassen werden (“false negatives”).

Die Verschlagwortung im speziellen und die Nutzung von Normdaten auch im Bereich formaler Beschreibungen, wie bei den an einem Bestandsobjekt beteiligten Personen, dient nun dem Zweck, diese Genauigkeit bei der Suche zu verbessern. Statt einer rein technischen Extraktion von Wörtern werden diese im inhaltlichen Bereich intellektuell zugewiesen. Das Wort “Logikkalkül” ist dann nicht einfach nur ein Wort, das zufällig im Text auftaucht, sondern es beschreibt einen wissenschaftlichen Themenbereich, der dem Bestandsobjekt (hier beispielsweise ein Buch über Logik) bewusst zugeordnet wird. Ist der Suchbegriff Teil der Schlagwortliste, so liegt es nahe, die Relevanz gegenüber den Objekten, die den Begriff nur beinhalten, höher einzustufen. In formalen Fragen helfen Normdateien bei der Suche nach Personen, diese eindeutig, trotz häufig vorkommender vollständig identer Namen zu unterscheiden und die Genauigkeit der Recherche zu erhöhen.

Das Semantic Web hilft

In vielen GLAMs wird die manuelle Verschlagwortung durch eine wachsende Anzahl von Einzelobjekten zunehmend schwieriger. In den Bibliotheken betrifft dies vor allem die neuen Netzpublikationen3 , die aus diesem Grund zunehmend mit maschineller Unterstützungen verschlagwortet werden (Faden und Gross 2010; Hinrichs et al. 2016). Eine der grössten Herausforderungen der automatisierten Verschlagwortung ist dabei, eine mit der manuellen Verschlagwortung vergleichbare Qualität zu erreichen.

Das Ziel der hier vorgestellten Überlegungen ist es, die manuell vergebenen, aber normierten Metadaten für eine präzise Suche in den Beständen der GLAMs zu nutzen. Mit Hilfe von Semantic Web Suchtechnologien und auf der Basis der in der Linked-Open-Data-Cloud verfügbaren Daten wird zunächst eine Suche nach Personen durchgeführt, die anschliessend mit einer Suche im Bestandskatalog nach Einzelobjekten auf der Basis manuell vergebener Schlagworte verknüpft wird. Bibliotheken, Sammlungen, Archive und Museen können auf diese Weise das Potential ihrer Metadaten, wie beispielsweise der manuell und aufwändig vergebenen Schlagworte, besser nutzen und mit Hilfe des Werkzeugs “S-O-WAS” ihrem Publikum eine semantische Suche ermöglichen.

Zur Ermöglichung einer semantischen Suche soll zunächst der Informationsreichtum der Linked Open Data Cloud genutzt werden. Insbesondere steht dabei die freie Wissensdatenbank Wikidata4 im Vordergrund, die eine umfangreiche Sammlung von Objekten beinhaltet, die das Wissen in Form von Aussagen und Fakten über diese Objekte strukturiert. Um die Nutzung der Wissensdatenbank zu ermöglichen, stellt Wikidata unter anderem eine Schnittstelle für die Abfrage der Daten mit der Abfragesprache SPARQL5 bereit.

Die Funktionsweise der Abfrage wird im Folgenden anhand eines konkreten Beispiels erläutert.

Semantische Suche nach Personen

Nehmen wir zum Beispiel an, es wird nach einer Person gesucht, die bestimmte Kriterien erfüllen soll. Der Name der Person sei zunächst nicht bekannt. Zum Einen wissen wir, dass die Person ein Autor (männlich) ist, was jedoch zunächst keine Rolle spielt. Wir wissen, dass diese Person im 19. Jahrhundert geboren wurde, in Grossbritannien lebte und von Beruf Mathematiker war. Das Venn-Diagramm in Abbildung 1 veranschaulicht die Einschränkung auf eine diesen Kriterien entsprechende Schnittmenge.

Abbildung 1: Person, lebte in Grossbritannien, geboren im 19. Jahrhundert, Mathematiker.

 

Allein mit Hilfe dieser Kriterien lässt sich eine semantische Abfrage formulieren, die als Ergebnis eine Liste der Personen zurückliefert, die den Kriterien entsprechen:

  •  SELECT DISTINCT ?Person ?PersonLabel ?GND WHERE {
  • SERVICE wikibase:label { bd:serviceParam wikibase:language “(AUTO_LANGUAGE),en”. }
  • ?Person wdt:P27 wd:Q145.
  • ?Person wdt:P569 ?Gebdatum.
  • ?Person wdt:P21 wd:Q6581097.
  • ?Person wdt:P227 ?GND.
  • ?Person (wdt:P106/wdt:P279*) ?Beruf. FILTER(?Beruf IN(wd:Q14565331, wd:Q4964182)). FILTER NOT EXISTS {?Person wdt:P106 wd:Q49757. } FILTER((YEAR(?Gebdatum)) >= 1800)
  • FILTER((YEAR(?Gebdatum)) < 1900) }

Betrachten wir zum Beispiel einen Teil der Abfrage, der die Abfragekriterien enthält: ?Person wdt:P27 wd:Q145.

Es wird ersichtlich, dass nicht die Bezeichner selbst, sondern Identifier für Objekte (beginnend mit “Q”) und Prädikate (beginnend mit „P“) verwendet werden. In diesem Teil der Abfrage bezieht sich ?Person auf die gesuchte Entität, die in der ersten Zeile als Variable definiert wurde, Q145 referenziert das Objekt “United Kingdom” und P106 repräsentiert das Prädikat “country of citizenship”. Die Eigenschaften von Objekten und Prädikaten (z.B. Bezeichner in anderen Sprachen) können auf der Wikidata-Seite zum Objekt (hier Q1456) oder zum Prädikat (hier P1067) eingesehen werden.

Das Ergebnis8 der Abfrage ist (erstellt am 26. September 2018) eine Liste von 71 Personen, beginnend mit den folgenden 4 Personen:

Wikidata-ID Personenname (WikidataLabel) GND-ID
1.    wd:Q334846 Edmund Allenby, 1st Viscount Allenby 119161311
2.    wd:Q722472 Homer H. Dubs 11623167X
3.    wd:Q725050 John Burnet 117175056
4.    wd:Q310794 Karl Pearson 118982141

Dieses Ergebnis diente der vorläufigen Einschränkung des Suchraumes mit Hilfe logisch-semantischer Bedingungen. Im Folgenden wird gezeigt, wie dieses Ergebnis mit Hilfe einer konkreten Abfrage in Bezug auf Bestandsobjekte von GLAMs bzw. hier konkret in Bezug auf Werke einer Bibliothek genutzt werden kann.

Suche nach Unterbegriffen

Im letzten Abschnitt haben wir ein Suchbeispiel vorgestellt, in welchem nach einer Person gesucht wird. Stellen wir uns nun vor, dass wir spezifischer nach einem Autor suchen, der ein Werk verfasst hat, das inhaltlich im Feld der Logik angesiedelt ist, und dass wir aufgrund der Spezialisierung davon ausgehen können, dass eines der in relevanten Werken vergebenen Schlagworte ein Unterbegriff von Logik (z.B. Aussagenlogik, Prädikatenlogik, etc.) ist. Im deutschen Sprachraum findet die sogenannte Gemeinsame Normdatei (GND) verbreitet Anwendung. Diese ist nicht nur eine Begriffssammlung, sondern stellt zugleich auch eine Ontologie dar. Diese ermöglicht es uns beispielsweise innerhalb der Sachschlagwörter der GND nach über- oder untergeordneten Begriffen zu recherchieren. Mit der Plattform lobid.org steht eine frei nutzbare REST-API9 zur Verfügung, die es erlaubt, die GND maschinenlesbar abzufragen. Dies ermöglicht bei Kenntnis der Feldstruktur eines indexierten Dokumentes, den Aufbau komplexer Suchabfragen durch Eingabe der jeweiligen Feld-/”Spalten”namen.10

Die Suche nach Sachschlagwörtern, deren übergeordneter Begriff Logik ist, hat als HTTP-Request die folgende Form: http://lobid.org/gnd/search?q=type%3ASubjectHeading+AND+broaderTermGener%20al.label%3ALogik&format=json&size=120

An die REST-Schnittstelle von lobid.org werden hier drei Paramter übergeben:

  • q: übergibt die eigentliche Suchabfrage.
    • type=SubjectHeading – sucht nach GND-Einträgen die Sachschlagwörter darstellen
    • broaderTermGeneral.label=Logik sucht nach Einträgen deren übergeordneter Begriff Logik enthält.
  • format: definiert das auszugebende Format des Ergebnisses
  • size: Anzahl der zurückgegebenen Treffer einer Anfrage

Aus dem Ergebnis kann für die weiterführende Suche im Zielkatalog je nach Sinnhaftigkeit und Einsatzmöglichkeit der Identifier des Begriffes oder aber auch die Ansetzungsform des Schlagwortes verwendet werden.

Verknüpfung der Personen- mit der Schlagwortsuche

Die in den beiden zuvor gezeigten Schritten maschinenlesbar gewonnen Ergebnisse erlauben nun die anfänglich unscharfe Suchabfrage in Form eines Suchbefehls zu bringen, der die einzelnen Schlagwörter mit den jeweiligen Autoren kombiniert, idealerweise sogar ausschliesslich durch die Verwendung von Identifikatoren der im Zielkatalog der Institution eingesetzten Normdatei.

Eine Voraussetzung für die Implementierung ist, dass für die in den Bestandsmetadaten existierenden Schlagworte die entsprechenden GND Identifier angereichert werden. Bezüglich der methodisch vergebenen Sachschlagwörter kann eine eindeutige Zuweisung durch die Lobid-Abfrage erreicht werden. Kommen jedoch frei vergebene Schlagworte oder Personennamen hinzu, so müssen die Terme eventuell durch Hinzuziehen vonKontext-Informationen disambiguiert werden. Die Anreicherung der Metadaten mit Schlagwort-GND-Identifiern kann unabhängig von der späteren Abfrage auf dem gesamten Metadatenbestand im Vorhinein durchgeführt werden.

In Abbildung 2 wird der Ablauf beginnend von der Formulierung der Suchanfrage bis zur Ergebnisdarstellung schematisch dargestellt. Der horizontale Querbalken im unteren Bereich der Grafik stellt die Systemgrenze dar. Die oder der BenutzerIn formuliert eine Abfrage mit den semantischen Bedingungen und dem konkreten Begriff zu einem Sachgebiet.

Der QueryBuilder ist eine Komponente, die aus der Suchanfrage die Systemanfragen sowohl an die lobid-API als auch an Wikidata generiert.

Die Semantische Abfrage wird als SPARQL-Abfrage an die Wikidata geschickt (Schritt 1a und 2a in Abbildung 2), die als Ergebnis die Menge der Wikidata-Identifier IP der Menge der Personen P=(p1, p2, …, pn) liefert, die den semantischen Kriterien entsprechen.

IP=(gndp1, gndp2, …, gndpn)

Im ersten Schritt wird die Menge der GND-Identifier I der Unterbegriffe Us=(u1, u2, …, un) zum Themengebiet s (in diesem Beispiel s=”Logik”) mit Hilfe der lobid-API in Form einer REST-Abfrage ermittelt (Schritt 1b und 2b in Abbildung 2).

IUs=(gndu1, gndu2, …, gndun)

Unter der Voraussetzung, dass in den Metadaten eines Bestandsobjekts r die GND-Identifier IAr für Personen (=AutorInnen) und die GND-Identifier ISr für Sachschlagworte zugewiesen sind, ist die Ergebnismenge R=(r1, r2, …, rn) der Bestandsobjekte dadurch definiert, dass mindestens ein Autor ip unter den Autoren schlagworten IAr und mindestens ein Unterbegriff iu unter den Schlagworten ISr in den Metadaten des Bestandsobjekts vorhanden sein muss (Schritt 3 und 4 in Abbildung 2):

R = {r | Ǝ ip ∈  IAr ∧  Ǝ iu ∈  ISr r}

Abbildung 2: Schema der Generierung eine Suchmaschine mittels Linked Open Data Quellen

Verwandte Arbeiten

Die Verwendung von Wikidata zur Community-basierten Zuordnung von Namen und anderen Entitäten aus Normdateien wurde von Joachim Neubert vorgestellt (Neubert, 2017). Der wesentliche Unterschied ist, dass die externen Identifier selbst, die eine Organisation verwaltet, in die Wikidata integriert werden. Auf diese Weise können dann Links zurück auf das Bestandsobjekt im Katalog generiert werden (Lemus-Rojas et al., 2018).

Ausblick

Die während des zweiten openglam.at Kulturhackathons 201811 entstandenen und hier dargestellten konzeptuellen Überlegungen zeigen die Innovationspotentiale von Linked Open Data (LOD) in GLAM-Institutionen auf, und zwar in der Verbindung zwischen externen LOD-Quellen und lokalen, klassischen textbasierten Suchmöglichkeiten der jeweiligen Institutionen. Letztere haben durch ihre langjährige Erfahrung und den Einsatz normierter Datenbestände wie der gemeinsamen Normdatei (und ihrer Vorgängerkorpora) eine nicht zu unterschätzende Grundlage für die Kopplung an moderne Open Data Tools geschaffen.

Die freie Wissensdatenbank Wikidata erlaubt mit SPARQL auch komplexe Anfrage formulieren zu können und bietet die Möglichkeit GND-IDs als Antwort zu senden. Mit der freien Plattform lobid.org/gnd kann die GND selbst auf simple Art und Weise auch in ihrer Ontologie maschinenlesbar durchsucht werden. Eine Query-Builder-Applikation steuert entsprechende Anfragen und bereitet diese vor, kombiniert die aus LOD-Cloud stammenden Antworten und baut eine Suchabfrage an den lokalen Bestandskatalog vor.


Referenzen

1 Für den deutschen Sprachraum bildet die gemeinsame Normdatei (http://www.dnb.de/DE/Standardisierung/GND/gnd_node.html) einen weitverbreiten Standard.

2 Im Bibliotheksbereich gelten beispielsweise für die formale Katalogisierung RDA (Ressource Description and Access) oder RAK (Regeln für den alphabetischen Katalog) oder für die inhaltlichen Beschreibung RSWK (Regeln für den Schlagwortkatalog).

3 Bei der Deutschen Nationalbibliothek: Reihe O: http://www.dnb.de/DE/Service/DigitaleDienste/DNBBibliografie/reiheO.html

4 www.Wikidata.org

5 https://www.w3.org/TR/rdf-sparql-query/

6 https://www.Wikidata.org/wiki/Q145

7 https://www.Wikidata.org/wiki/Property:P27

8 Ergebnis in Echtzeit abrufbar unter: http://tinyurl.com/y7l3wh4n

9 http://lobid.org/gnd/api

10 Aufbau erweiterter Suchabfragen übersichtlich erklärt: http://blog.lobid.org/2018/07/06/lobid-gnd-queries.html

11 http://www.openglam.at


Weiterführende Literatur

Faden, Manfred; Gross, Thomas: Automatische Indexierung elektronischer Dokumente an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften. In: Bibliotheksdienst 44 (2010), Nr. 12, S. 1120 – 1135.

Hinrichs, I., Milmeister, G., Schäuble, P., & Steenweg, H. (2016). Computerunterstützte Sacherschliessung mit dem Digitalen Assistenten (DA-2). O-Bib. Das Offene Bibliotheksjournal / Herausgegeben Vom VDB, 3(4), 156-185.

Neubert, J. Wikidata as a Linking Hub for Knowledge Organization Systems? Integrating an Authority Mapping into Wikidata and Learning Lessons for KOS Mappings NKOS@TPDL, CEUR-WS.org, 2017, 1937, 14-25.

Lemus-Rojas, M., Pintscher, L. (2018). Wikidata and Libraries: Facilitating Open Knowledge. In M. Proffitt (Ed.), Leveraging Wikipedia: Connecting Communities of Knowledge (pp. 143-158). Chicago, IL: ALA Editions.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Wenn Daten einen zweiten Frühling erleben

Wissen wurde früher von Mund-zu-Mund oder durch das geschriebene Wort weitergegeben. Heute passiert das immer mehr digital und «Open Data“ ist die Philosophie, mit der es zugänglich gemacht wird. Am «Open Cultural Data Hackathon» in Lausanne zeigten Hacker und Institutionen, wie sich Kulturdaten in spannende Anwendungen verwandeln lassen.

Konzentriert beugen sich Menschen über ihre Laptops. Zweiertische sind zusammengeschoben und von braunen Plastikstühlen umringt. Es wird viel Englisch gesprochen an diesem Tag. Die Universität Lausanne ist vom 15. -16. September 2017 Austragungsort des «Open Cultural Data Hackathons» gewesen, an dem sich Informatiker aus allen Ecken der Schweiz mit Vertretern von Kulturinstitutionen getroffen haben, um gemeinsam Datenträger öffentlich, gratis und sortiert online zur Verfügung zu stellen.

Ideenwand

Museen, Archive, Galerien stellten ihre  Daten zur Verfügung und auch Theater – wie diesjährig das Schauspielhaus Zürich. Eine gemischte Truppe mit unterschiedlichen Sprachen, Vorwissen und Rohdaten. Aber alle mit dem gleichen Ziel: Open Data im Kulturbereich voranzutreiben.

Berner Fachhochschule als Triebfeder

Auch Beat Estermann ist an diesem Wochenende vor Ort. Er ist wissenschaftlicher Mitarbeiter am E-Government-Institut und stellvertretender Leiter des Schwerpunkts «Open & Linked Data» an der Berner Fachhochschule. Er koordiniert den Kultur-Hackathon und kennt viele der Teilnehmer. Das spürt man an der fast familiären Atmosphäre vor Ort. Der «Open Cultural Data Hackathon» findet zum dritten Mal an wechselnden Orten statt. Estermann forscht im Themenbereich Open Data und OpenGLAM. OpenGLAM ist eine Initiative, die es sich zum Ziel gemacht hat, dass Open Data und Crowdsourcing in Gedächtnisinstitutionen gefördert wird. Ein Teil dieses Efforts manifestierte sich am diesjährigen «Open Cultural Data Hackathon» Lausanne.

Zwei starke Beispiele

Während zwei Tagen konnten sich die rund 100 TeilnehmerInnen an Datensätzen austoben. Am Anfang des Hackathons stand die Präsentation der von den Institutionen zur Verfügung gestellten Datensätzen. Ziel war es Stakeholder wie an einer Tauschbörse zusammenzubringen: Daten gegen Wissen. Interessierte Hacker konnten sich einer Projektgruppe anschliessen und während zwei Tagen an den besagten, zusammengeschobenen Tischen hacken. Wer zwischendurch einen Input wünschte, konnte sich an einem der Side-Event inspirieren lassen und etwas dazulernen. Am letzten Abend wurden die Projekte in der Gruppe vorgestellt.

Entwickelt Games: David Stark

Einer dieser Hacker ist der 33-jährige David Stark aus Zürich, ein professioneller Game-Entwickler. Hacker ist ein Wort, welches kurz aufhorchen lässt. «Hacker ist linguistisch ein negativ besetzter Begriff», erklärt Stark. Aber eigentlich heisse «to hack» so etwas wie basteln. Mit dem Ziel, eine Lösung für ein bestehendes Problem zu finden.

Er ist von Anfang an mit dabei am «Open Cultural Data Hackathon». Insgesamt ist es in etwa sein zehnter Hackathon und ihm gefällt der spielerische Ansatz: «Ein Hackathon ist wie eine Blase aus Software und Algorithmen, in der man sich während einer beschränkten Zeit befindet», so Stark. Er schätze es zudem, dass man sich auch anderen Themenfeldern zuwenden kann, wenn der Zenit einer Idee erreicht ist.

Das Projekt, an dem er mitgearbeitet hat, heisst «Swiss Video Games Directory». Eine Datenbank mit bislang 216 Datensätzen mit Informationen zu allen bislang entwickelten Video-Games in der Schweiz. Er hat die Rohdaten mit verschiedenen Eckdaten in einem Google-Spread-Sheet eingetragen. Danach wurden diese Daten automatisch online in einer Liste mit Videovorschau visualisiert. Sein Ziel? «Wir wollen in der Projektgruppe Informationen zu den bislang erschienenen Video-Games aus der Schweiz konservieren und archivieren». Damit ein Stück Pop-Kultur – das Videospiele inzwischen sind – nicht verloren geht.

Roxanne Fuschetto ist Kunsthistorikerin.

Auch Roxanne Fuschetto hat am «Open Cultural Data Hackathon» teilgenommen. Die studierte Kunsthistorikerin arbeitet am Institut für Medizingeschichte an der Universität Lausanne und gehört zur Gruppe der Datenprovider. Für den Hackathon erstellte sie in einem Team aus dem Archiv des Instituts eine Bibliografie der Bücher über die Objekte –  die «Medical History Collection»

Das Team, in dem Fuschetto zwei Tage zusammen gearbeitet hat, ist zufrieden mit dem Ergebnis. «Bislang war die Liste der Objekte nirgends digitalisiert». Sie sei positiv überrascht über den neu gewonnenen Überblick. Inwiefern das Institut an der Liste weiterarbeiten wird, ist noch nicht klar. Aber der erste Schritt, das erste Verständnis und die erste Liste seien gemacht.

Nächstes Mal im Landesmuseum

Beat Estermann hofft, dass künftig noch mehr Institutionen ihre Datensätze freigeben. Dieses Jahr sind die Teilnehmerzahlen noch in etwa gleichbleibend im Vergleich zu den vorangegangenen Kultur-Hackathons. Der Hackathon im nächsten Jahr hat den Fokus Museen und findet passend dazu im Landesmuseum Zürich statt, dem meistbesuchten kulturhistorischen Museum der Schweiz.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Re:Dada – Collecting, performing and exhibiting Dada 100 years later

A small group of artists in 1916 performed for several months at the Cabaret Voltaire in Zurich, the birthplace of dadaism. DADA stands for experiments to absurdly reduce tried concepts and values and pioneered tactics of remix, collage, sharing and deconstructing works. This radical democratization of art still today drives internet, DIY, open source and remix culture. In 2016 DADA turned 100 and is still very much alive.

In 2016 Dada was celebrated extensively in Zurich and around the world. Exhibitions took place at the Landesmuseum and Kunsthaus Zurich in Switzerland. As part of those celebrations, Dock18 began Re:Dada together with swissnex San Francisco. Supported by Migros Kulturprozent, swissnex San Francisco and Pro Helvetia, Re:Dada was a smaller project of the larger initiative of dock18: re:publicdomain, where Mario Purkathofer and Daniel Boos together with artists explored how to re:discover, re:read and re:write works that had recently joined the public domain. Re:Publicdomain seeks to challenge the rather classical approach of many institutions to mainly show and discuss art behind protective glass in museums, use passive art historical discourse and present works in books. Re:PublicDomains believes that only by re:using art with contemporary artistic approaches, can we keep our cultural heritage alive, rediscover it and keep it relevant.

A century of Dada means that many works are now in the public domain (e.g. Hugo Ball, Sophie Taeuber-Arp, Elsa Freytag von Loringhofen & Johannes Theodor Baargeld). The copyright has expired and many dada works now belong to everybody, and can be reused in any creative way. Therefore Dada is a great field to explore the re-use of public domain material.
This article describes the journey of the project re:dada which started with collecting works and talking with museums and former rights owners to presenting the works through performance and exhibition.

Re:Preparation
Dock 18’s re:publicdomain projects begin with a search of available works in the public domain. To identify the dadaists and their works we initiated a call and asked experts, such as Juri Steiner, Raimund Meier, Adrian Notz to share their favorite Dada works. Out of this list we ‘randomly’ selected 22 works and gathered the digital versions of the work. Some were already available on archive.org, wikipedia, gutenberg or archives of museums.

Many originals of the early dada period are in archives, libraries and museums in Switzerland and not yet digitized or available for downloads. Gaining these works involved discussions with archives and sometimes lead to discourse amongst high level management within museums. The Kunsthaus for example had to discuss our request for 24 digitized works with their board as it was not just a request for publication but re-use. Also we had to pay for the digital versions which are now, after the request, also available on the Kunsthaus website. Our request for the opening manifesto from Hugo Ball triggered an internal discussion with the National Library of Switzerland. Their department “Schweizerisches Literaturarchiv” was hesitant to provide us with a digital version and wanted to know more about how we use the works, begging us to use the work respectfully. This brought to the surface the question of what it means to be a work in the public domain, free from restrictions. Copyright laws differ between the US and Switzerland. For example early works of Hans Arp or the picture of the fountain by Alfred Stieglitz are in the public domain in the US, but not in Switzerland. For the exhibition we focused on the US law and the concept of fair use.

After having collected the digital artifacts, we contacted artists whose artistic approach was suited to Dada remixing and worked together (Switzerland and US) via group and individual calls and meetings.

Re:Performing
Dada is always tied to performance and therefore we also did several performances as part of our re:dada project. We started with a small dada soirée at the Cabaret Voltaire in Zurich on April 17. The November 4th Re:dada exhibition opening at swissnex San Francisco had over 300 guests and consisted of live performances, improvisations and short video clips around Dada much like the original dada soirées. The audience was also involved and encouraged to participate. Some of these performances were presented both in Zurich and in San Francisco and were built on previous Dada works, here are some details:

The audio-visual performance Randensonate by the artist duo W3rkH0f media arts remixed the stop motion animation short Diagonal-Symphonie by Viking Eggeling. W3rkH0f also used digital photos of various original Dada magazine pages inserted in realtime video collage. The sung lyrics of Randensonate consisted of modern acronyms (of politics, economics, technology) and names of fruits and vegetables (including beets). This combination of audio and image input was then combined into a live Dada video and sound collage creating a live Re:Mixing of these ingredients, using their own custom developed software tools.

At Re:staurant Dada, dadaistic meals were prepared for the guests by Adolf Gurkenhofer. The menu was inspired by Man Ray’s Menu for a Dadaist and Duchamp’s Steak Tartare. The main attraction was the soup filled with the letters of Hugo Ball’s Opening Manifesto. A laser cut cut-out of the manifesto was made from hand made pasta consumed by the audience.The overall restaurant itself was a collage of words, letters, manifestos, kitchen tools, art objects, found objects, dishes, plates and ideas around Dada. The accompanying music during the cooking was provided by the circuit bending orchestra, created by the Swiss artist flipfloater who builds new music instruments out of used electronic toys and included The dadaistic piece “Fünf Pittoresken” by Erwin Schulhoff.

Re:staurant – Opening Manifest Pasta

Performance of Randensonate at swissnex San Francisco © Myleen Hollero

Re:Exhibiting
The exhibition Re:Dada was presented in the swissnex Gallery from November 4 – 30, 2016. In total there were 13 artists or artist groups represented and 5 public events throughout the month connected to the larger Bay Area Dada World Fair celebration.

Title Author Work used Form
RandenSonate W3rkH0f media arts Diagonal-Symphonie by Vikking Eggeling Performance
Karawane Markets Karawane Community Karawane by Hugo Ball Video
Do Great Things Tom Comitta Industriebauern by Georg Scholz Video
Arpgut Lab Cho Linska Die Grablegung der Vögel und Schmetterlinge by Jean Arp Installation
Komponautor Bruno Schlatter / Richard Brand gadji beri bimbam by Hugo Ball Installation
Shit posting Sofía Córdova Dada Manifesto Video
fountain Jenny Odell Fountain by Marcel Duchamp Sculpture
Negerlieder Sofía Córdova Multiple works Photograph
Artist Trading Cards (ATC) m. vänçi stirnemann all cards
Swiss Cirquit Bending Orchestra Claude Winterberg Fünf Pittoresken by Erwin Schulhoff Performance & Installation
Re:staurant Dada Adolf Gurkenhofer Eröffnungsmanifest by Hugo Ball, Dada Kopf by Sophie Taeuber Arp and all dada Works ever been done Performance & Installation
GOD Remix (Disambiguation) Tony Labat God by Elsa Freytag von Loringhofen Sculpture
Alannah UEBERMORGEN Alannah by Paul Citroën Installation
A star John J. Heartfield Italien in Ketten by John Heartfield Bildbearbeitung

Some highlights from the exhibition included
Karawane Market by curator Daniel Boos and the Karawane Community. Using a crowdsourcing platform, people were asked to record video testimonials for products and services they could sell via the sound poem Karawane by Hugo Ball, which was first performed at Cabaret Voltaire in 1916. This curated collection of videos presented in a stack of monitors invited visitors to put headphones on to hear and watch the submitted videos from around the world in a variety of formats–a kind of Dada world market.

Sophie Cordova’s NEGERLIEDER : “He pleads for an intensification of rhythm (Negro Rhythm)” was a photographic tryptic where the artist herself critics the Dadaist approach of mining other cultures via questionable appropriation. Riffing on Man Ray’s photographs of women posing in African masks, the works look to underline the movement’s philosophical correlation between what Hugo Ball famously deemed “fool’s play sprung from nothing” and otherness. Jenny Odell’s interpretation of Marcel Duchamp’s famous Fountain, taught in every Art History Modernism class in America, similarly took a female position placing a single, signed GoGirl™ female urination device inside a vitrine.

Tom Commita remixed Georg Scholz’s painting “Industrial Farmers,” replicating its visual composition, but replacing its characters, props and scenery with those of tech hippie culture. Instead of a German priest and his wife, there is a mid-twenties San Francisco tech couple. And in place of the Bible, the techie holds Jack Kerouac’s On the Road. The military bust in the anterior is replaced by a bust of Steve Jobs. And out the window is not a machine and a man, but a recreation of an actual Burning Man sculpture around which a 3D model dances on a loop, turning Scholz’s work into a quintessential San Francisco scene.

Arpbot by Cho Linska

Do great things by Tom Comitta

Re:Conclusion and Learning
While many 100 year dada celebrations, events and exhibitions put an emphasis on discussing, explaining or showing dada, we fostered the re-use of dada. This lead to a discussion about what it means to remix dada works in the public domain and what the potential strategies are. Artists explored how dada could be appropriated with digital tools, modernised or how to comment on them. The following three cultural strategies were used to reuse and reread the historic content.

First many artists mainly switched the medium, namely from a painting to a digital animation and video (eg. Do great things), from text to food (Re:staurant) or from a static video to a dynamic live performance (Randensonate).

Secondly our invited artists found that the political and cultural intentions of the Dada artists are still relevant today. Next to Tom Comitta’s “Do great things” the grandson of John Heartfield re-mixed a collage of John Heartfield and replaced the political actor Mussolini with Donald Trump. Cho Linska built robots out of the works of Jean Arp to attract a new generation of investors and meet the expectations of younger and geeky collectors.

Thirdly, artists criticised some notions of the dadaist. Where Duchamp focussed on the male object pissoir, Jenny O’dell showed a female urination device while Sophie Cordova critically reflected on the fascination of dadaists with African objects and from her view questionable appropriation.

As the public domain grows with new dada works entering the public domain every year, for example Emmy Hennings and Karl Schwitter’s in 2019, Libraries and archives must continue to make these works available for re-reading and re-writing to keep them alive.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.