Beiträge

Wann lohnt sich Entity Extraction?

Ergebnisse einer Masterarbeit zur automatischen Entity-Extraction bei der Schweizerischen Theatersammlung

Die Digitalisierung schreitet voran und betrifft immer mehr Lebenssphären, Branchen und Institutionen. Archivinstitutionen in der Schweiz beobachten diese Entwicklung mit grossem Interesse und sind auf dem Weg, sich in diesem Kontext neu zu positionieren. Auch intern wird versucht, Effizienzsteigerungen mit den neuen Ansätzen zu erzielen, wie das Beispiel der Schweizerischen Theatersammlung zeigt. Seit Kurzem wurde dort in Zusammenarbeit mit der BFH Wirtschaft ein neues Datenerfassungskonzept entwickelt und im Rahmen einer Machbarkeitsstudie überprüft. In diesem Beitrag wird auf die Eckpunkte der durchgeführten Studie eingegangen.


Logo der Schweizerischen Theatersammlung

Die Schweizerische Theatersammlung ist eine zentrale Archivierungsstelle für sämtliche Dokumente zum Schweizer Sprech-, Musik und Tanztheater. Sie archiviert Dokumente, die vor, während und nach der Produktion entstehen und besitzt die grösste Fachbibliothek der Schweiz mit Büchern, Periodika, Stücktexten etc. Die im Archiv vorhandenen Materialien sind elektronisch mit Inszenierung-Datenbanken erschlossen, welche detaillierte Informationen zu Produktionen der Schweizer Theater auf elektronischem Wege liefern.


Nun eine Frage: Wie stellen Sie sich die regelmässige Datenerfassung von hunderten verschiedensten Insitutionen, klein und gross, professionell oder amateur, an zentraler oder (viel) weniger zentraler Lage vor?
Wenn diese Frage immer noch nicht kompliziert genug ist, muss noch erwähnt werden, dass die Theater nicht gesetzlich dazu verpflichtet sind, Informationen der Theatersammlung zur Verfügung zu stellen und es wurden dafür keine elektronischen Mechanismen vorgesehen. Wie üblich werden solche komplexe Situationen durch minutiöse manuelle Arbeit gehandhabt. Im Falle der Theatersammlung bedeutet dies, dass die Produktionen, schon seit mehr als 20 Jahren, aus öffentlich vorhandenen Materialien (wie z.B. Jahresprogramme und Programmhefte der Theater) in die Inszenierungs-Datenbanken abgetippt werden. Sollte es keine modernere Alternative geben, fragen Sie? Genau diese Frage hat sich vor Kurzem die Theatersammlung gestellt und die Antwort ist natürlich „Ja, es gibt mehrere“.

Eine potentielle Alternative wäre Entity Extraction, dank welcher die relevanten Metainformationen zu archivierten Premieren durch Software automatisch erkannt werden können. In diesem Fall übernimmt die Software sozusagen das manuelle Eintippen und lässt den Menschen lediglich die Kontrollfunktion geniessen und ein paar wenige Fehler korrigieren. Voller Enthusiasmus machte ich mich gemeinsam mit dem Auftraggeber an die Arbeit. Wir stellten zu unserer Zufriedenheit fest, dass es bereits erfolgreiche Implementationen von Entity Extraction gibt. Ausgerüstet mit einem passenden Software-Framework (General Architecture for Software Engineering GATE (1) ) stiegen wir in die Machbarkeitsanalyse ein.

Es wurden manuell 804 Entitäten annotiert, dutzende von Exktraktionsregeln definiert und das Framework zur Auswertung der Ergebnisse gebastelt. Nach mehreren Wochen Einarbeitung und effektiver Software-Entwicklung waren die erste Ergebnisse da. Und sie überzeugten uns… zu wenig. Davon ist die zweite Iteration entstanden, wo Konsequenzen der ersten Iteration gezogen und die notwendigen Verbesserungen angestrebt wurden. Nach der Verfeinerung der Extraktionsregel in der zweiten Iteration wurde die Gesamtquote von 52.86% erreicht, d.h. aus 804 manuell annotierten Entiäten konnte die Software 425 Entitäten automatisch erkennen. Anders gesagt, entsteht mit dem Einsatz der Entity Extraction bei der Theamtersammlung ein Effizienzgewinn von ca. 365 Personenstunden pro Jahr. In absoluten Zahlen tönt dieses Ergebnis ziemlich vielversprechend. So wurde die Machbarkeit der Lösung bestätigt, der Gewinn quantifiziert und die Ziele der Untersuchung erreicht.

Ein Beispiel des Dokumentes mit erkannten Entitäten (Graphische Oberfläche vom GATE-Framework)

Trotz der erfolgreichen Machbarkeitsstudie wird der untersuchte Ansatz bei der Theatersammlung nicht weiter verfolgt.

Es hat sich im Rahmen der Machbarkeitsstudie herausgestellt, dass im Verhältnis zu den Aufwänden für die Definition und die Weiterentwicklung der Extraktionsregeln unbedeutende oder gar keine Einsparungen anfallen. Die Gründe dafür lassen sich potentiell auf andere ähnliche Institutionen übertragen und sind wie folgt:

  • Hohe Erkennungsquoten und wenige falsch-positive Ergebnisse zugleich sind mit möglichst präzisen Extraktionsregeln zu erreichen, welche hohe Aufwände verursachen.
  • Die begriffliche, semantische und gestalterische Vielfalt der untersuchten Dokumente macht die Erstellung der generischen und zugleich präzisen Extraktionsregeln fast unmöglich. So hätten die Regeln praktisch für jedes Theaterhaus verfeinert werden müssen, was die Aufwände erhöht und eine Steigerung der Komplexität der Lösung mit sich bringt.
  • Masseneffekte für die bedeutenden Effizienzsteigerungen waren nicht vorhanden. Tatsächlich werden bei der Theatersammlung pro Jahr lediglich ca. 1700 Datensätze erfasst, was im Falle grosser Investitionen wenig ist.

Mit anderen Worten: Entity Extraction lohnt sich am besten dann, wenn viele ähnliche Dokumente nach generischen Regeln verarbeitet werden müssen. Wie erwähnt ist das bei der Theatersammlung leider nicht der Fall. Anstatt Entity Extraction wurde deshalb der Theatersammlung empfohlen, die Verarbeitung der internen Rohdaten von Theaterhäusern zu untersuchen. Diese Daten könnten in die Inszenierung-Datenbank mit potentiell wenigen Anpassungen periodisch übernommen werden. Damit wäre die Umwandlung der Rohdaten in Publikationen, aus welchen wiederum Rohdaten nach komplexen Regeln abgeleitet werden, umgangen und die unnötige Komplexität wäre vermieden.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

The “Open by Default” Journey of Auckland Museum’s Collections Online

Auckland War Memorial Museum Tāmaki Paenga Hira is situated in New Zealand’s largest city with a population of over one million people. Built in 1929 as a place of remembrance for those who have fallen and served their country in war, the Museum holds a large collection of objects significant to the people of the Auckland region, New Zealand and the wider Pacific. The extensive collections include a large natural science collection, war related material, a significant documentary heritage collection, one of the largest decorative arts collections in New Zealand and pre-eminent Māori and Moana Pacific taonga (objects). The Museum is currently undertaking an ambitious Collections Readiness programme that aims to provide access to its expansive collections and share them onsite, offsite and online. Underpinning this project is the institution’s twenty year strategic plan entitled Future Museum, first published in 2012, which places the collections and visitors at the centre of the museum’s purpose.

Implementation of the Future Museum strategy commenced in 2013 with the release of over one million collection records through an updated Collections Online database. This immediately enabled a deeper level of engagement with the Museum’s collections, both locally and globally. Using this newly refined Collections Online the Museum was then able to launch a Collections Readiness programme of projects to enrich object records with new data and digital surrogates. Feeding into this overarching programme was the development of a fit for purpose copyright framework, that takes into account both legal and ethical considerations, and also champions the OpenGLAM philosophy for the reuse of both images and data.

As a bicultural institution the Museum aims to weave Māori and Moana Pacific values outlined in the guiding frameworks He Korahi Māori and Teu La Vā through everything that we do. Acting as kaitiaki (caretaker) of these collections we aim to work closely with partner knowledge communities to ensure that their voices are heard. As part of the Museum’s open collections journey and in line with this aspiration, the Museum has developed frameworks to guide staff when considering requests for the reuse of Māori and Moana Pacific images.

Auckland Museum’s journey towards becoming open by default has encountered numerous challenges, experiments and constant reflection on how to best achieve Future Museum. As a result, the Museum now has one of the most open, reusable, ethically aware and discoverable online collections in Aotearoa New Zealand.

This paper outlines the primary directions and decisions taken while establishing the open collection online. It then describes the Collections Readiness programme in more detail. The final sections discuss the two pivotal pieces of work which underpin Collections Online, the copyright and cultural permissions frameworks.

Creating open data and open collections

The Museum’s collection contains literally millions of amazing items that express connections with the world. They encompass natural science, cultural heritage, art, archives, a research library and the Cenotaph database. They have evolved over the museum’s 163-year history, and bear the print of the people who have collected, cared for and contributed to them. As such, their equivalent can be found nowhere else in the world. We take them as our starting point, they are the very heart of what we do.

Understandably, this diversity is expressed through an assortment of data standards that captures and records the collection in a number of different ways. Internally the Museum uses three source systems (Vernon, Presto and Genie) to database collection information. Within these systems, and even within each collecting department, there is a range of standards which reflects the requirements for describing different types of objects with different characteristics for different disciplines and all of which also reflect the people and preoccupations of our rich institutional history. It’s a fantastic, messy, wealth of information.

In order to exploit this accumulation of knowledge and to provide external users with meaningful online access we needed to find a way of enabling the exploration and exposition of this data in an integrated way, as a single collection.

Future Museum is guiding the Museum through a process of institutional renewal. It offers a set of values which recognises that museum culture is changing – that, although the Museum cherishes its unique institutional history of content curation, it must now embrace a different kind of access to the museum collection; one that allows people to self-navigate, engage with and discover the wondrous landscape of our natural, social and cultural collections on their own terms.

This might not be considered revolutionary for the sector, but for our 163 year old institution, this was the first step towards becoming a truly digital museum. It has demanded at times controversial changes in the way we do our business. We are relinquishing control and are moving our closed world systems into an open world, one where we will encourage sharing and collaborative use of our data. One that recognises that we have a responsibility to a truly global audience – onsite, offsite and online.

We have two guiding principles to help us navigate towards this transformed horizon. That: “we are open as a rule – closed by exception” and that “we are one collection, not many”.

Open as a rule – the filter system

While working towards this vision of an open collection, we recognised there was a requirement to build in methodologies that allowed us to be both respectful and responsive to cultural and personal sensitivities. Because of the fundamental change in process and deliverables, we also had to ensure that a level of trust and good faith was maintained with internal stakeholders by ensuring they were able to retain a responsible level of control around the information we published. For instance, we have hundreds of fields in our collections dataset which pertain not only to objects descriptions, but also to the personal and administrative information of our stakeholders. These are necessary for proper management of the Collection but were never designed to be seen in an un-curated, un-moderated way. This data was not complete, not systematically audited and there was a very real fear that by releasing this raw data, the reputation of the museum and its people would be put at risk.

To manage the release of this data we implemented a series of filters that were customisable to each department. Firstly we created a filter for four grades of openness, we then allowed the collection teams to define which fields would be available to the public for objects in each grade, for each department.

Table 1 The Collections Online filter grading criteria

We then asked the collection team to provide the rules that would determine which objects will fit into the various grades. This allowed us to bulk apply the filter. These rules ranged from time based exclusions, geographic selections or by classifications. Although they were designed to be applied at a bulk level, we ensured that they could also be manually applied to individual records when required.

Table 2 Example of rules for the filtering system

The records are extracted from the three source systems every 5 minutes. This provides the collection staff the ability to quickly update a record’s grading in the event that inappropriate data is inadvertently published. It also empowers them to publish new data quickly if required in line with exhibition, public enquiry, current events or simple data correction.

Although the filter allows us to restrict data that may be of concern, this is not the end goal. We monitor the number of records in each grading and work to solve data integrity problems to continually move more of the collections into the open filter setting.

For an object record to be completely blocked online, there must be a clear cultural, ethical or legal reason that would detrimentally affect the reputation of the museum or the cultural integrity of the object. To date only 5% of the collections are inaccessible to the public. The flexibility of the system has ensured the success in the publishing of our data. It has meant that we can navigate the difficult terrain of the road to openness with confidence. That, we can find a route to offering the full extent of our heritage to a global audience, without compromising the values of the institution and the cultures of people it and its collection represent.

We are one collection using linked data

As information was gradually prepared to be published online, we acknowledged that our users should not have to understand our internal, institutional structure (such as collection department names or data field terminologies) to start exploring the collections. We worked to find a way to pull together departmental peculiarities by finding the fundamental links between them which could create a broader context between departments. This was the principle behind choosing to use linked open data (LOD). Our collections are made up of a network of these connections that is only evident when you break the information down into the sum of its parts. Using LOD triples we created a network that gave a permeable collection data overview, comprehensive for a single collection approach but which did not interfere with the day-to-day running of unique collection disciplines. We achieved this by publishing our collection through an API (application programming interface) that followed the principles of LOD to overlay the arrangement of the data, rather than to integrate with it.


This process allowed us to store our information as a giant network in which any piece of data is be connected to any number of others. To create the links we used the CIDOC ontology, which is a semantically rich system that delivers data harmonisation based on analysed contextual relationships. It allows for our diverse and variable data.

Table 3 Linked Data allows us to see the links between our collections and provides connections that can be explored.

The continuing focus of Collections Online is the “linked” part of LOD, to provide the bricks that allow people to build their own pathways through the collection, to make their own connections, to discover the stories that are relevant to them. By opening the data and connecting to external sources, people and resources around the globe, we embed them in other research ecosystems and encourage an active digital engagement with our objects. This not only benefits the user but it also enriches our collection data and so the cycle may begin again, ever constant and ever changing.

As soon as the Collections Online approach was comparatively mature, the Museum began an ambitious, large scale programme of work to make the decades of backlogged collection objects discoverable and usable, anywhere in the world.

Imaging collections to enable new connections

The Museum’s collections vary considerably in their nature, both in their intellectual significance and their physical form. When it came to establishing a programme of work to ‘digitise’ these collections, it was their physical form that posed one of the biggest challenges. Digitisation in its broader sense implies not just the act of scanning or photographing something, but also having the associated metadata to attach this media to, ultimately to enable discovery. The Museum’s Collections Readiness programme sought to address all aspects of digitisation by running four cataloguing projects in tandem with a project to photograph the collections. Running these two tasks in tandem has posed a second significant challenge.

Imaging of flat 2D works has been progressing at the museum well for some time, largely focused on Documentary Heritage collections and the museum’s significant collection of Botany specimens. In 2015, when the museum established its Collection Imaging Project, the focus was largely on the Museum’s Natural Sciences and Human History collections which are comprised almost entirely of three dimensional objects. In order to image the objects in a way that illustrates their shape we realized each type of collection object would benefit from a distinct way of being photographed or lit, and so it raised the question of exactly how we wanted to image the collections. Automated solutions and equipment often produced results that showed the imaging equipment or stage, lacking overall polish. These required post production work to produce high quality results. Traditional photographic techniques, while potentially slower, produced a high quality end product fit for multiple uses.

The Museum seeks to use the newly created images not just for publication online as a way to liberate the collections, but also for collection management purposes: a record of the objects’ condition at a point in time and also as foundational elements for the Museum’s Gallery Renewal projects. The images we created had to be fit for all of these purposes, and so we arrived at the ‘90% rule’ concept. If on one end of a spectrum we had poor quality images shot under poor conditions, and on the other we had high end advertising/auction house images, what the Museum sought to achieve was 90% of that high quality, but quickly. Additionally, the Museum sought to create images in such a way that they are sound for long term digital guardianship. Alongside the Museum’s born-digital collections, these images are digital assets which will stand the test of time. This has limited how digital images can be created and placed a real focus on photographing our collections smartly and efficiently.

Fungia sp., MA143225, © Auckland Museum CC BY. All images created adhere to the ‘90% rule’ and are complete as they leave the camera.

Other mass-digitisation projects globally have used production lines, conveyor belts, barcoding and automation to achieve throughput in their imaging programmes. Auckland Museum looked at this carefully when embarking on its own projects as a way to realise similar benefits. Many of these projects rely on substantial work on the collections prior to imaging to allow for automated processing to occur, significant staff time applying barcodes and intensive assembly of the collections before being sent down conveyor belts. Additionally the equipment and systems often lend themselves to one type of collection before needing significant modification to suit another.

With Auckland Museum’s parallel projects for cataloguing, collection management and imaging happening all at once, there were no assembled collections with barcodes waiting to be sent down conveyor belts – Collections Readiness work was happening across many work-streams at the same time. This has meant that the imaging project reacts not just to backlogs of collections which are already catalogued (the Museum’s Land Vertebrate Study Skins collection, catalogued in its entirety already, was the first collection to be imaged) but also to collections being worked on at the same time in other projects. The imaging project also embeds rights assessment and management as one of its core functions, placing the OpenGLAM philosophy at the heart of its work. These functions occurring in parallel has meant that the success of the imaging component of the Collections Readiness programme is inextricably linked to working alongside the various collections teams and projects in harmony.

Kea, Nestor notabilis, LB4352, © Auckland Museum CC BY

The Collection Imaging project has had to seek efficiency through alternative routes to offset the limitations of not using automated technology and working in tandem with other Collections Readiness projects, while in turn realizing the benefits of high quality images and traditional studio control. Images are created in a highly efficient operating environment modelled on techniques used in manufacturing and ‘just-in-time’ delivery. 100% of images are created using tethered software, named using a unique identifier at the point of capture which ultimately links it to its collection item within our collection management systems. The capture environment is colour managed allowing for accurate exposure and colour to be set at the point of capture and the project photographers work in such a way that no photo editing is required afterwards – what is captured by the camera is the end product. This brings both efficiency but also more stable files for long term digital preservation.

Collections Photographer Richard Ng works on Marine mammal skeletons under studio lighting using tethered capture as part of his workflow. Photo: Andrew Hales, © Auckland Museum CC BY

Images created have been designed to integrate as seamlessly as possible with the Museum’s new Digital Asset Management System (DAMS), the final foundational platform for the digital museum, which is currently being deployed. The breadth of the collections imaged provides both variety and inspiration to the teams internally and within the communities we serve. Nowhere is this seen more than with the Museum’s Moana Pacific and Māori collections where, as information and images are created, we see communities reconnect with their ancestors and new connections with contemporary artists and community groups being forged. With specimens from tiny snail shells to whale skeletons and botany sheets, flamingos and zebras; with objects from WWII flags to horology tools, jewellery and firearms, the variety is endless. The collection images are encountering a warm reception and developing new audiences by supporting alternative ways of working online.

These new ways of working and the growing re-use of digital versions of our objects come hand in hand with new considerations and the Museum has responded by ensuring that there are robust, legal and ethical protocols in place to meet those needs.

Considering legal and ethical frameworks of copyright

As the demand grows for cultural institutions to provide online access and reuse of collections through mass digitisation projects, new considerations regarding copyright legalities arise. As a cultural institution in New Zealand the collection is governed mainly by New Zealand copyright legislation (New Zealand Copyright Act 1994) which presents unique challenges when opening up our collection to a wider audience. New Zealand copyright law differs from other jurisdictions, for example instead of a fair use exception we have a fair dealing provision, which greatly restricts how cultural institutions can manage their collections. Other challenges include a lack of a clear orphan works provision, ambiguous copyright duration terms for photographic material created prior to 1944 and heavy restrictions placed on how prescribed libraries can reproduce material for archival purposes. An exception to the challenges outlined is the shorter copyright duration length of life of the creator, plus fifty years from the year of their death. This means that copyright in works created in New Zealand expire and fall into the public domain twenty years sooner than other jurisdictions.

To navigate these legal challenges and the lack of clear provisions, the Museum has recently developed a copyright framework based on seven principles which guides the use and reuse of our digital collections. The salient principle of this framework is once again, that the Museum is open by default and restricted by exception. This position aligns closely with both the government-led initiative NZGOAL (New Zealand Government Open Access Licensing Framework) values and the international OpenGLAM philosophy. NZGOAL encourages the use of a Creative Commons CC BY licence as the default option for material in which there is no copyright or where government departments are the copyright holders.

A further principle states that the Museum will provide clear, consistent rights statements for all images that are published online. To ensure this is implemented a suite of five main rights statements were created in line with other New Zealand cultural institutions and are assigned across our collection. These statements include; All Rights Reserved, © Auckland Museum CC BY, No Known Copyright Restrictions, Copyright Undetermined- Untraceable Rights Owner, Cultural Permissions Apply.

The two most open statements, CC BY and No known copyright restrictions, allow images to be downloaded and reused for any purpose, even commercial use, as long as the Museum is attributed as the source. The other three statements respect either legal, cultural or ethical considerations and allow visitors to view the image, but not download it.

Where an image has an All Rights Reserved statement, this indicates that we have sought permission from the copyright owner to publish this image online. Over 11,000 objects have been classed as ‘orphan works’ meaning there is no known or traceable author after a due diligence search. When releasing images of these objects we are taking a calculated risk and we make these accessible, but not reusable, using the “copyright undetermined – unknown rights holder” rights statement. These works are accompanied by a takedown notice on our website, so if a copyright holder comes forward we have a policy on how to remove the image if they wish. This allows the Museum to publish works that would otherwise be restricted by copyright legislation, and also allows copyright holders to identify works and get in touch with us.

The ‘Cultural permissions apply” statement applies to images which depict Māori and Pacific content and allows these images to be accessible online for private research or study, under the New Zealand Copyright law fair dealing provision. The Museum has developed guidelines for users requesting the reuse of images that fall into this category and a process is followed to seek permission from the relevant communities if necessary. These are discussed below. The “No known copyright restrictions” statement enables the Museum to release reproductions of 2D works that are deemed to be out of copyright and the Museum doesn’t claim any new copyright over these images.


Another important recommendation from the copyright framework is the introduction of a Creative Commons licensing option for copyright owners. On a trial basis this has been implemented through our copyright licensing agreement forms when requesting permission. To date there has been a positive uptake with many copyright owners choosing to assign a CC BY or CC BY NC licence to images of their works. This option only applies to digital reproduction of the object that the Museum has created, not the actual work itself. At the heart of this work is building harmonious relationships with copyright owners, ensuring that they are fully informed of all of their options and introducing them to new ways of sharing digital content.

Overall the copyright framework provides a fundamental platform that allows the Museum to contribute to the ever-growing wider pool of openly available data and images. And in turn new creative works are made, research papers are strengthened, profitable businesses are created – all from this pool of freely available cultural heritage material, encouraging a cyclical reuse of material that would otherwise be locked away behind a paywall.

Putting cultural care at the centre of the Museum’s practice

An appreciation of the Museum’s partner knowledge communities, different ways of seeing the world and caring for taonga is fundamental to the Museum’s work. The approach to caring for taonga accommodates Māori and Moana Pacific cultural values and reflects the partnership expectations of these communities in the telling of perspectives and narratives associated with their people and taonga, as well as the care and management of these objects. This is central to Auckland Museum’s guiding principles and values and is in line with the Museum’s commitment to nurture relationships as outlined in its strategic pathways He Korahi Māori and Teu Le Vā.

In the global, online context cultural care and open collections can be perceived as sitting uneasily alongside each other. The Museum’s journey has included developing clearer practice around the release of images containing Māori and Moana Pacific subjects (1) , based on appropriate cultural values and museum good practice. This process is intended to ensure cultural values are upheld while also supporting people to access and use these images.

In 2014 input was sought from a wide variety of New Zealand library, museum and external specialists to gain a range of perspectives; from this the museum developed guidelines for Auckland Museum staff responsible for considering the use of Māori images based on Māori cultural values and current museum good practice. The museum then consulted more widely across memory institutions around the Pacific, and developed a companion framework and practice for Moana Pacific images in 2016.

These frameworks provide direction for Museum staff in line with the Museums Aotearoa Code of Ethics (2). They sit alongside copyright legislation and are particularly intended for considering requests for use of orphan works, works in which Auckland Museum is the copyright owner or those with no known copyright. This approach lifts responsibility for respectful and informed decision-making from the individual to the organizational level.

When making decisions, legal status, appropriateness and the significance of the image or object are considered.

As with the entire online collections journey, the fundamental principle is to be open by default and restricted by exception. Aiming to increase access to and engagement with its collections and stories through its image library, the Museum takes a positive approach by assuming access will be provided unless there is a clear reason why approval should not be given. The exception to this principle is images which are known to be restricted, where the converse is the case (3).


(1)
This process relates to the representation of the subject or object (the image) as distinct from the subject or object itself, which attracts its own level of care. The images may be of Museum-held objects or have content which is external to the Museum.

(2)
Museums Aotearoa Te Tari o Ngā Whare Taonga o te Motu The Museums of New Zealand Inc, Code of Ethics and Professional Practice, 2013. Section 2.3: Museums will engage with people of the cultures concerned in the development of collections of cultural property, including their reproduction in digital and other formats. All museums will recognise the rights and interests of tangata whenua and Moriori in relation to cultural property.

(3)
Images of human remains are restricted except under exceptional circumstances.


The Museum also seeks to ensure that the requested images fit with the intended purpose and that cultural obligations are not compromised.

Under the principle of Manaakitanga, the Museum ensures requests are dealt with in a timely manner and that there are clear pathways of communication, including explanations.

The principle of Mana Taonga is about safeguarding the mana (authority) of the taonga. There is also the potential to enhance the mana of the taonga, when it is connected with the journey, stories and iwi (tribal groups) it is related to.

The principle of Mana Whenua guides the Museum in its obligations to partner knowledge communities, whether they are defined or implicit. The duty of care is to uphold the mana of the communities that are associated with Māori images, no matter whether the connections are active or latent. The Museum is cognizant of the tupuna (ancestors) associated with a Māori image and the future generations to come.

Responsibility ultimately lies with the communities from where images are derived, even if this responsibility is not able to be activated. The Museum applies a wide understanding of ownership and tries to identify all iwi interests and relationships. Where practically possible, requests are referred to the owners or relevant iwi/hapū (tribal grouping). The preferred approach is to assist the requestor where it is reasonable to do so.

Under the principle of Kaitiakitanga, a high level of care is given to all Māori images and a peer review process is undertaken if there is any question or high degree of complexity over an image request. There is a well-defined chain of decision-making that can be called upon if required.

Companion guidelines were developed for images with Pacific content in 2016, after an international process of consultation. Two principles from Teu Le Vā were identified as relevant:

Respect and Integrity are about upholding the Museum’s obligations to our source communities, whether the relationships are active or not. This involves showing respect to people, items, subjects, key events, spiritual beliefs and to requestors. Integrity is about supporting communities to divest themselves of colonial views and interpretation of people, events and material culture.

The principle of Authenticity supports the ethical sharing of indigenous world views and knowledge and guides us in our obligations to our source communities.

To date the frameworks have been effective in responding to all 200+ requests received since their implementation. The Museum ensures consistency throughout the process and across the organization by utilizing the collection management systems to document all decisions, note established precedents and build the Museum’s body of knowledge. No challenges had been forthcoming from either source communities or requestors and all decisions have been provided within a week of receiving the required information. Only 3 requests have been declined, including one internal request.

More importantly though, by putting cultural care at the centre of our practice the Museum aims to ensure that, while it is embracing the OpenGLAM philosophy, it is not inadvertently repeating colonial practices of the past by inappropriately making materials available for re-use.

Our Contribution to the Commons

As Auckland Museum’s collections are shared with the world, the community is enabled to engage with, use and reuse them. To date more than one million items and over 300,000 images have been released – free, open and downloadable under a CC BY license. There are 5,000 data enhancements made daily and 2,000 new objects online every month. The open data API is sharing the collections with a global audience and in this way is providing open access to cultural data on a scale not seen before in the New Zealand sector.

It is early days in the Museum’s open by default journey, and the Museum team gratefully acknowledges the generous support of colleagues from other memory institutions and partner knowledge communities.

With 2.5 million downloads of Auckland Museum’s collection records in the 12 months to July 2017, it is encouraging to see the interest in and appetite for this material internationally. It is clear that Auckland Museum’s online collections are contributing to the global body of knowledge relating to the natural and social history of the Auckland region, ethical partnering with Māori and Moana Pacific knowledge communities and New Zealanders’ involvement in international conflicts, in a robust and ethical way.

As the Museum makes further progress, there will no doubt be further considerations and challenges to work through. We are confident that by making our collections available to all via Collections Online we have made a positive start and embrace the work ahead of us.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

“Wir haben mehr Datensätze als Programmierer” – Interview B. Estermann Teil II

So viele Kulturdaten wie möglich für den 3. Schweizer Kulturhackathon gewinnen – das Ziel von Koordinator Beat Estermann ist erreicht: die teilnehmenden Hacker können in diesem Jahr aus dem Vollen schöpfen. Mit den Daten werden sie Apps programmieren oder Spiele entwickeln. Im zweiten Teil unseres Interviews spricht Beat Estermann über Altruismus, Kreativität und Best Cases im Bereich Open GLAM.

Wer den Begriff Hackathon zum ersten Mal hört, denkt vielleicht zuerst an den Hackerangriff Wannacry. Wie sind die Hacker, die an Ihren Hackathon kommen?
Der Begriff Hacker stammt ab vom englischen Wort Hack. Das bezeichnet eine schnell gefundene, kreative Lösung, die vielleicht nicht ganz bis zum Ende durchdacht ist. Ziel ist es, in kurzer Zeit etwas Angewandtes zu erfinden. Mit Hack assoziiere ich auch den Aspekt des Innovativen, des Unkonventionellen, des Unerwarteten, etwas zu probieren, was nicht alle machen.

Was findet an dem Hackathon statt?
Am Hackathon geht es grundsätzlich darum, Personen aus verschiedenen beruflichen Hintergründen  aus dem GLAM-Umfeld zusammen zu bringen. Zwei Tage lang arbeiten sie an konkreten Projekten basierend auf offenen Daten. Die Idee ist einerseits aufzuzeigen, was man alles mit den Daten machen kann und damit den Gedächtnisinstitutionen einen Ansporn zu geben, ihre Daten zur Nutzung durch Dritte freizugeben oder selber neue Anwendungen zu schaffen. Der Hackathon erlaubt es den verschiedenen Players, neue Ideen zu entwickeln, sie zu konkretisieren, zu sehen, welche Kompetenzen es zu ihrer Umsetzung braucht, und sich eine erste Vorstellung davon zu machen, wer über diese verfügt mit wem man zusammenspannen könnte.

Dann nutzen Sie den Event auch zum Lobbying in Sachen Open GLAM?
Der Hackathon ist ein wichtiger Anlass, um auf die Institutionen zuzugehen und nachzufragen, ob und von wem wir zusätzliche Daten bekommen können. Es gibt in der Schweiz rund 1500 Gedächtnisinstitutionen. Mit Massenmails haben wir bereits alle angeschrieben. Persönlich angesprochen haben wir 200-300. Es ist ein dauernder und langwieriger Prozess. Bei gewissen Institutionen dauert es von der ersten Kontaktnahme bis zur ersten Freigabe von Daten drei bis vier Jahre. Dabei geht es uns nicht allein um die Daten, sondern auch um einen Kulturwandel seitens der Institutionen.

Zählen Kultureinrichtungen wie Theater und Opernhäuser auch zu Gedächtnisinstitutionen? Oder anders gefragt, was verbindet Kulturdaten und Open GLAM?
Ich benutze die Begriffe „offene Kulturdaten“ und „Open GLAM“ als Synonyme. Generell wäre der Begriff der Kultur natürlich weiter zu fassen als jener der GLAM: Kultur findet im Jetzt statt, die Gedächtnisinstitutionen dokumentieren Ereignisse, die bereits vergangen sind. Gewisse staatliche Archive möchten nicht zu den kulturellen Institutionen gezählt werden, weil sie nicht in erster Linie eine kulturelle, sondern eine staatspolitische Aufgabe wahrnehmen. Sie stehen für die Transparenz und Nachvollziehbarkeit des staatlichen Handelns. Darüber hinaus lassen sich ihre Bestände natürlich auch zur Kultur eines Landes zählen.

Welche Institutionen erwarten Sie zum Hackathon?
Dabei sein werden Institutionen wie das Bundesarchiv, die Nationalbibliothek, das Literaturarchiv, verschiedene Zürcher Archive, die ETH-Bibliothek, Swissbib, die Universitätsbibliotheken Basel und Lausanne, das Landesmuseum sowie etliche weitere Institutionen.

Wie viele Datensätze bieten Sie an?
Aktuell haben wir über 80 Datensätze von über 40 Institutionen; d.h. wir haben mittlerweile mehr offene Datensätze als Programmierer am Hackathon teilnehmen. Es ist schwer vorauszusehen, wie viele es noch werden, denn viele Institutionen melden ihre Datensätze in den letzten beiden Wochen vor dem Hackathon an.

Das war früher wohl schwieriger?
Ja, beim ersten Hackathon hatte ich Angst, dass nicht genügend Daten bereit stehen würden. Ohne Daten funktioniert ein Hackathon nicht. Mittlerweile haben wir jedoch genügend Datensets auch aus den früheren Events und jedes Jahr kommen neue hinzu. Wir können jederzeit einen Hackathon veranstalten und sind nicht mehr so abhängig davon, ob uns die Institutionen neue Daten liefern.

Die Daten werden primär für den Hackathon bereitgestellt. Für wen sind die Daten anschliessend gedacht, wenn sie öffentlich zugänglich sind?
Theoretisch kann sie sich jeder ansehen, genau wie sich jeder im Museum eine Ausstellung ansehen kann. Aber es braucht Intermediäre, Vermittler. Herr und Frau Schweizer gehen ja nicht unbedingt selbst in ein Archiv, um nach Daten zu suchen. Sie würden die Kulturdaten bearbeitet konsumieren – sei es in Wikimedia, mittels einer App, oder indem sie einen journalistischen Beitrag darüber lesen, welcher beispielsweise Erkenntnisse aus der historischen Forschung vermittelt.

Wer sind die Vermittler bzw. die Hacker?
Es sind Historiker, die historische Auswertungen machen, App-Programmierer, die Anwendungen für ein breites Publikum entwickeln, oder Künstler, die die Daten in ein Werk verarbeiten. Zu unseren Hackern zählen Ideengeber, d.h. Leute, die sich mit Kulturdaten auskennen, eine bestimmte Frage zu den Daten haben oder kreative Ideen in den Raum stellen. Wichtig sind auch Webdesigner und Software-Entwickler, welche die Ideen umsetzen, oder die Vertreter der Gedächtnisinstitutionen, welche ihre Fachexpertise einbringen. Wir hatten aber auch schon PerformancekünstlerInnen unter den Teilnehmern; und auch für DatenjournalistInnen würden sich gewisse Datensätze eignen.

Welche Veröffentlichung im Bereich Open GLAM ist für Sie ein Best Case?
Eines der frühen Highlights war der Foto-Upload des deutschen Bundesarchivs. Dabei sind etwa 100.000 Bilder aus dem 2.Weltkrieg erstmals für die breite Öffentlichkeit zugänglich gemacht geworden. Die grösste Aufgabe war dabei, dass die Metadaten in grossen Teilen ergänzt und überarbeitet werden mussten, weil die Beschreibungen noch dem Zeitgeist des 3. Reiches entsprachen. Für die Community war das ein sehr erfolgreiches Ergebnis. Seither gibt es viele andere gute Beispiele; jedes hat seine Eigenheiten.

Woher kommt generell die Motivation, Daten oder eben Fotos frei zugänglich zu machen?
Dafür gibt es verschiedene Gründe. Demokratische Ideen, Transparenz oder auch Altruismus. Im Bereich GLAM haben die Gedächtnisinstitutionen nicht nur den Auftrag zu bewahren, sondern auch zu vermitteln und da öffnet das Internet viele neue Türen. Zum Beispiel sind manche Institutionen in einer thematischen Nische angesiedelt. Dank dem Internet können sie ein weltweites Publikum erreichen. Zudem ist es nur eine Frage der Zeit, bis die Menschen die neuen Arten des Zugangs und der Vermittlung von Wissen nachfragen.

Wann genau entsteht die Nachfrage – schon vor der Veröffentlichung der Exponate, Informationen oder Daten oder erst danach?
Das ist eine schwierige Frage. Die Überlegungen, Wissen zu sammeln und aufzuzeichnen, gehen zurück bis in die Antike. Es gab immer Menschen, die sich mit Wissen beschäftigten. Die Aufklärer veröffentlichten die ersten grossen Enzyklopädien, um das Wissen der Menschheit zugänglich zu machen. Die Idee an sich ist also schon alt. Sie entwickelte sich mit dem technologischen und gesellschaftlichen Fortschritt weiter, und im Zuge der Demokratisierung wandelte sich zudem das Verständnis des Staates. Früher war das Staatswissen oftmals geheim, unter anderem um die Herrschaft zu erleichtern. In der Demokratie können und sollen aber alle mitwirken und damit das funktioniert, braucht das Volk Informationen. Die Grundlagen des staatlichen Handelns müssen öffentlich zugänglich sein. Die heutige Ausprägung des Open Content ist eine logische Weiterführung dieser Entwicklung und eine wichtige Grundlage einer offenen Gesellschaft.

Gibt es noch die Möglichkeit, sich anzumelden?
Ja, der Anlass ist offen für jeden. Am besten funktioniert es für diejenigen, die in einem Team ein prototypisches Projekt mit den Datensätzen realisieren möchten. Dazu kann man mit einer eigenen Idee an den Event kommen und sie am Anfang des Events kurz vorstellen. Man kann sich aber auch während der Gruppenbildungsphase einem Team anschliessen, das eine Projektidee verfolgt, die man selber interessant findet. Für diejenigen, die noch nie einem Hackathon beigewohnt haben, würde ich unbedingt empfehlen, dass sie die Gruppenbildungsphase am Anfang des Events nicht verpassen. Einfach nur reinschauen, ohne sich selber aktiv einzubringen, funktioniert nur bedingt. Wer aktiv mitmacht, hat sicherlich mehr vom Event. Wir bieten aber auch ein interessantes Workshop-Programm, bei dem man sich über das eigentliche Hacken hinaus, zu verschiedenen Themen kundig machen und austauschen kann.


Hackathon: Am 15. und 16. September findet der Swiss-Open-Cultural-Data-Hackathon an der Universität Lausanne statt. Die Teilnahme ist gratis, Interessierte sind gebeten, sich bis 31. August anzumelden.


Zur Person

Beat Estermann ist stellvertretender Leiter des Schwerpunkts «Open & Linked Data» am E-Government-Institut der Berner Fachhochschule. Er forscht im Themenbereich Open Data und OpenGLAM, d.h. Open Data und Crowdsourcing in Gedächtnisinstitutionen. Zudem koordiniert er die schweizerische OpenGLAM- Arbeitsgruppe des Vereins opendata.ch und die eCH-Fachgruppe Open Government Data.


 

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

“Der offene Ansatz hat eine enorme Kraft” – Interview B. Estermann Teil I

Daten sind der Rohstoff des digitalen Zeitalters. Museen, Bibliotheken und Archive verfügen über grosse Mengen an Informationen. Während manche Länder diesen Datenschatz schon der Öffentlichkeit zugänglich machen, hinkt die Schweiz im Bereich Open GLAM hinterher, sagt Beat Estermann Forscher am BFH-Zentrum Digital Society und Gründer der OpenGLAM-Arbeitsgruppe von opendata.ch im ersten Teil unseres Interviews.

SocietyByte: Was verbindet Sie mit der Open-GLAM-Community, sind Sie im Herzen ein Hacker?

Beat Estermann: Ich bin selber kein Programmierer, hatte aber schon seit meinem Erststudium als Übersetzer immer wieder Berührungspunkte mit der IT. Ab 2000 habe ich beispielsweise im Rahmen eines Studierendenprojekts den Internetauftritt der Soziologie-Fachschaften der Universitäten Zürich, Basel, Bern und Genf mitgestaltet. Damals war gerade die Auszeichnungssprache XML entwickelt worden, mit der wir die Website bauten. Aber ich habe mich bald wieder auf Inhalte fokussiert und in meinem Masterstudium in Public Management die offene Produktionsweise, wie sie bei der Entwicklung von Open-Source-Software oder bei der Wikipedia anzutreffen ist, unter ökonomischen Gesichtspunkten untersucht. Im Rahmen eines europäischen Forschungsprojekts der Berner Fachhochschule zum Thema „Senioren und Online-Communities“ besuchte ich dann erstmals auch Veranstaltungen der Wikimedia-Community. Das war um das Jahr 2010, als die Wikimedia-Community gerade damit begonnen hatte, systematisch die Kooperation mit Gedächtnisinstitutionen zu suchen.

Wie haben Sie die Verbindung zwischen BFH und Open Data und Open GLAM entwickelt?

Zwischen Open-Government-Data (OGD) und Open GLAM gibt es viele Parallelen; die Bereiche befruchten sich wechselseitig. In der Schweiz ist die Open-Data-Bewegung etwa 2010 entstanden. Ich war dort von Beginn weg involviert und habe das Thema ans E-Government-Institut gebracht. 2012 betreute ich eine Studierendenarbeit über Schweizerische Gedächtnisinstitutionen. Diese Pilotstudie erwies sich als wichtiger Türöffner, denn sie brachte das Thema den Institutionen näher. Das war quasi die Pilotstudie für die grössere Studie im Rahmen meiner Dissertation. Klassischerweise befasst sich die BFH mehr mit E-Government-Themen als mit dem Bereich der Gedächtnisinstitutionen; die Open-GLAM-Thematik passt aber sehr gut zum BFH-Zentrum Digital Society. Seit letztem Jahr bekommen wir auch vermehrt Aufträge aus dem Open-GLAM-Bereich, so zum Beispiel von Memoriav oder der Schweizerischen Nationalbibliothek.

Neben diesen Beratungsaufträgen widmen Sie sich auch der Forschung. Welches sind Ihre aktuellen Projekte?

Neben einem kleineren Forschungsmandat zum Thema Langzeitarchivierung publiziere ich die Ergebnisse meiner vergleichenden Studie über die Gedächtnisinstitutionen in zehn Ländern. Es geht um die Art und Weise, wie die Gedächtnisinstitutionen mit neuen Trends rund um das Internet umgehen.

Dabei fanden Sie heraus, dass die Schweiz im internationalen Vergleich hinterherhinkt bzw. im hinteren Mittelfeld liegt. Was machen die führenden Länder im Open-GLAM-Bereich besser?

Ein grosser Unterschied liegt im Umgang mit föderalen Strukturen. Interessanterweise ist der Heritage-Sektor zum Beispiel auch in den Niederlanden kleinteilig und bei kleineren Institutionen stark auf Freiwilligenarbeit ausgerichtet. Da unterscheiden sich die beiden Länder nicht so stark. Aber die E-Partizipation-Kultur ist dort viel weiter entwickelt als in der Schweiz. Wir haben von jeher eine demokratische Partizipationskultur, die weitgehend ohne Internet auskommt. In vielen EU-Ländern wurde erst mit dem Aufkommen des Internets der Ruf nach mehr Bürgerpartizipation laut. Hinzu kommt, dass sich Gedächtnisinstitutionen in anderen Ländern wie Brasilien oder der Ukraine im Durchschnitt erst recht spät eine Internetpräsenz zugelegt haben, und dann oftmals gleich im Web 2.0. Die Schweizer Institutionen waren zwar früher dran, haben aber ihre Homepages nicht ins Web 2.0 übertragen – die Seiten vieler Institutionen sind daher nicht interaktiv.

Auf welche Weise unterstützt der Staat in den Niederlanden – die in Ihrer Studie die Nase vorn haben – die Open-GLAM-Bewegung?

Das kann ich so direkt nicht sagen. In einem früheren Projekt habe ich aber die Erfahrung gemacht, dass in den Niederlanden die Zentralregierung recht schnell einspringt und die Federführung übernimmt, wenn es um landesweite Ziele geht. Wenn die Umsetzung nach ein paar Jahren läuft, zieht sich die Regierung wieder zurück. So kommen die Niederlande schneller vorwärts.

Der Bundesrat hat im vergangenen Jahr die Strategie „Digitale Schweiz“ verabschiedet. Wie schätzen Sie diese ein?

Die Strategie gibt die allgemeine Stossrichtung vor, aber sie enthält keine Budgets. Über die Budgets müssen die verschiedenen Akteure selbst entscheiden. Ähnlich zahnlos wurde vor zwei Jahren auch die Open-Government-Data-Strategie des Bundes verabschiedet, bei der ebenfalls die Kantone nicht beteiligt sind. Man wartet jetzt ab, wie die einzelnen Kantone darauf reagieren.

Was treibt den Prozess abseits der Politik voran?

Zu den Treibern zähle ich den Verein opendata.ch, das Schweizer Chapter von Open Knowledge International, Creative Commons mit offenen Lizenzen und die Wikimedia-Bewegung. Hinzu kommen innovative Institutionen, welche neue Ansätze ausprobieren. Sie zeigen, wie Crowdsourcing funktioniert, dass Open-Content funktioniert und auch ökonomisch eine Bedeutung hat. Zum Beispiel hat Wikipedia innerhalb nur eines Jahrzehnts im Marktsegment der allgemeinen Enzyklopädien die Grossen aus dem Markt gedrängt. Dieser offene Ansatz hat eine enorme Kraft. Zudem hat die Wikimedia-Community ab 2008 damit begonnen, Gedächtnisinstitutionen direkt zu kontaktieren und ihnen klarzumachen: wir machen im Internet grundsätzlich dasselbe, wir vermitteln kulturelle Inhalte und Wissen.

Diese Entwicklung wurde sicherlich durch die Digitalisierung beschleunigt?

Zu den Trends, die das Internet möglich macht, gehören User-Partizipation, Social Media Crowdsourcing und kollaboratives Arbeiten. Diese Entwicklungen sind nicht grundsätzlich neu. Partizipative Ansätze gibt es schon lange. Der Einbezug von Freiwilligen war zum Beispiel im Bereich der Archäologie lange Gang und Gäbe. Doch dieser Bereich wurde in den letzten Jahrzehnten zunehmend professionalisiert; man wurde vorsichtiger, arbeitete mehr und mehr nach wissenschaftlichen Standards und schloss Laien von vielen Aufgaben aus. Wenn man sich die Entstehungsgeschichte von Museen anschaut, war ihr Ursprung meist das Hobby oder die Leidenschaft eines Einzelnen. Danach ist aber oftmals eine Professionalisierung zu beobachten. Mit dem Aufkommen des Internets wird nun die Frage nach neuen Beteiligungsmöglichkeiten gestellt; zum Beispiel um externes Expertenwissen zu speziellen Themen zu erschliessen, das in den Gedächtnisinstitutionen selbst nicht vorliegt. So hat sich beispielsweise die ETH Bibliothek an ehemalige Mitarbeiter der Swissair gewendet, um die Metadaten der Fotobestände der Fluggesellschaft zu ergänzen.

Ist aus den partizipativen Trends heraus die Open-GLAM-Bewegung entstanden (oder hängt sie vielmehr mit der Hacker-Kultur zusammen)?

Solche Entwicklungen kommen immer schubweise. Im Bereich Open Data sagen manche, dass die Ursprünge im wissenschaftlichen Bereich bis in die 1950er Jahre zurückgehen. Sicher gab die Open-Source-Bewegung einen wichtigen Impetus. Dabei haben sich Computerprogrammierer an US-amerikanischen Universitäten ab den 1970er Jahren zusammengetan, um ihre Software auszutauschen. Andererseits gab es schlaue Leute wie Bill Gates, die wollten sich für ihre Software bezahlen lassen. Beides passte nicht zusammen. Seitdem haben wir im Bereich der Software zwei Paradigmen: Proprietäre Software, bei der sich oftmals Quasi-Monopole herausbilden, und Open Source Software. Wobei die Open-Source-Bewegung die Monopole zum Teil unterläuft  und eine Wettbewerbssituation herstellt. Die Gesellschaft profitiert von diesem Wechselspiel.

Neben den Gedächtnisinstitutionen verfügt auch der Staat über grosse Datenmengen. Wie öffnet der Staat diese?

Ausgehend vom Transparenzgebot und vom Informationsfreiheitsgesetz, welches den BürgerInnen den Zugang zu staatlichen Unterlagen zusichert, entwickelte sich die Idee, nicht einfach PDFs zu veröffentlichen, sondern die Daten in Formaten bereitzustellen, die einfach weiterverwendet werden können. Das ist die OGD-Idee. Wichtigen Anschub gaben Grossbritannien und die erste Obama-Administration, die OGD ab 2009 sehr hoch hängten. Das schwappte über die G8-Staaten auf andere über, die in der Folge OGD-Gesetze bzw. OGD-Strategien verabschiedeten. Seither erfolgt deren Umsetzung, die je nach Kontext und Organisationskultur sehr unterschiedlich ausfallen kann.

Ist es eine Frage des Glaubens oder der Einstellung?

In meiner Wahrnehmung gibt es unter den Gedächtnisinstitutionen wie auch unter den Verwaltungsstellen welche, die eher innovationsaffin sind. Von diesen wird erwartet, dass sie sich als Erste bewegen. Das können beispielsweise Institutionen sein, die an namhafte Forschungs­institutionen gekoppelt sind, wie die ETH-Bibliothek. Da sind die Erwartungen der Nutzer hoch und die Community schaut genau hin: „Was machen die First Movers?“ – Ich denke, es gibt eine ganze Reihe von Institutionen, die niemals zu den Vorreitern gehören werden, da sie genau wissen, wem sie zuerst über die Schulter schauen können, bevor sie sich selber bewegen.


Zur Person

Beat Estermann ist stellvertretender Leiter des Schwerpunkts «Open & Linked Data» am E-Government-Institut der Berner Fachhochschule. Er forscht im Themenbereich Open Data und OpenGLAM, d.h. Open Data und Crowdsourcing in Gedächtnisinstitutionen. Zudem koordiniert er die schweizerische OpenGLAM- Arbeitsgruppe des Vereins opendata.ch und die eCH-Fachgruppe Open Government Data.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Die digitalen Räume der Bibliotheken öffnen

Bibliotheken sind ein Ort des Wissens. Neben den gedruckten Werken verfügen sie heute über eine riesige Menge an digitalen Daten. Am Hackathon Geneva Open Libraries tauschten sich SpezialistInnen aus, wie diese allen öffentlich zugänglich gemacht werden könnenen. Einer der Organisatoren des Events, Lionel Walter vom Swissbib-Konsortium erklärt, was es mit diesem Hackathon auf sich hatte.

SocietyByte: Open libraries – offene Bibliotheken, ist das nicht ein Pleonasmus?

Lionel Walter: Bibliotheken sollten ihre Informationsschätze ja eigentlich sowieso für möglichst viele Leute zugänglich machen, denkt man. Doch neben Büchern horten Bibliotheken heute auch immer mehr digitale Datensätze – beziehungsweise, sie übertragen ihre analogen Bestände in die digitale Form. Dazu kommen noch eine Menge Nutzungsdaten; Bibliotheken sind Informationsdrehscheiben und in den gehorteten Daten mag so einiges stecken, das womöglich erst noch an die Oberfläche befördert werden muss. Und dabei könnten ganz verschiedene Leute mit ebenso verschiedenen Ideen und Expertisen helfen – sofern sie denn Zugang zu den Daten haben.

Lionell Walter

Sie haben den Open Libraries-Event in Genf mit organisiert. Inwiefern sind die Bibliotheken heute eher geschlossen als ‘open’?

Eigentlich ist die Grundphilosophie von Bibliotheken natürlich eine offene, aber das gilt vielleicht mehr für die analogen Bestände, für die klassische Idee von Schriftstücken. Im digitalen Bereich gilt das deutlich weniger. Da braucht es Initiativen, die wieder hin zu einer möglichst grossen Offenheit gehen – zum Beispiel damit auch alle digitalisierten Dokumente öffentlich zugänglich gemacht werden. Und zwar mit offenen Lizenzen.

Verraten die Bibliotheken im digitalen Zeitalter also ein wenig ihre Tradition?

Nein, das würde ich so nicht sagen. Sie haben schon verstanden, was ihre prinzipielle Aufgabe wäre – es ist sehr selten, dass Bibliotheken ihre Informationsschätze nicht verteilen wollen, aber oft wissen sie nicht, wie genau sie das anstellen sollen, sei es in technischer oder in rechtlicher Hinsicht.

Was sind dabei die Schwierigkeiten?

Oft ist es so, dass man auf digitalisierte Dokumente zwar zugreifen kann, die Lizenzen aber nicht klar regeln, was man mit den Dokumenten alles machen darf – kann man sie herunterladen, darf man mit ihnen arbeiten, sie weiterverwenden? Um solche Fragen geht es auch bei ‘Open Libraries’, wir möchten helfen zu klären, wie man welche Lizenzen am besten einsetzt und wie man das dann auch klar kommuniziert. Beispielsweise hat Google einer Bibliothek in Lausanne beim Scannen der Bestände geholfen – nun stellt sich allerdings die Frage, wer welche Rechte auf die Digitalisate hat. Da gibt es oft eine Menge offener rechtlicher Fragen.

Wie schätzen Sie die diesbezügliche Lage in der Schweiz und in anderen Ländern ein?

Ich würde sagen, die Bibliotheken haben in der ganzen Schweiz mit ähnlichen Problemen zu tun, und nach allem was ich von ausländischen Kollegen höre, ist die Situation auch mit anderen Ländern vergleichbar. Es sind also überall dieselben Herausforderungen.

Neben diesen strukturellen Fragen ging es beim Geneva Open Libraries-Anlass vom 12. und 13. Mai auch ganz konkret darum, Datenschätze von Bibliotheken zu heben, um originelle Zugänge oder Analysen aus ungewohnter Warte. Beteiligt waren unter anderem die Bibliothek der UNO, das Bodmer Lab der Uni Genf, das Genfer Staatsarchiv, der universitäre Bibliotheksverbund Rero und die Bibliothek des Musikkonservatoriums. Die UNO-Bibliothek etwa steuerte einen grossen Bestand an historischen Fotografien und anderer Dokumente bei, die unlängst digitalisiert worden sind. Das Bodmer Lab wiederum machte wahre Schätze aus der Sammlung Bodmer zugänglich, unter anderem eine Reihe reich illustrierter Reisebücher aus der Renaissance sowie über hundert Ausgaben von Goethes Faust in diversen Sprachen. Und auch das Staatsarchiv stellte historische Bestände in digitaler Form zur Verfügung.

Herr Walter, was erhoffen Sie sich von einem Hackathon-Event im Bibliotheks- und Archivumfeld?

Es gibt verschiedene Ziele: Mit einem Event kann man einen Rahmen setzen, ein klares Datum, auf das hin Bemühungen fokussiert werden können. Das schafft Motivation bei den Institutionen, im Hinblick auf diesen Event etwas zu tun. Ausserdem sehen die Institutionen sofort Resultate, sie bekommen unmittelbar konkrete Beispiele, was man mit diesen offenen Datensätzen alles machen kann. Und nicht zuletzt kommt es am Hackathon zu einem Austausch verschiedener Spezialisten, die sich sonst nicht unbedingt treffen würden. Oft sind Datenspezialisten angewiesen auf das Detailwissen derjenigen, die die Daten kennen.

Können Sie da ein Beispiel nennen?

Ein tolles Projekt, das am Hackathon erarbeitet worden ist, ergab sich aus dem offenen Fotoarchiv der UNO. Unter anderem war ein Historiker anwesend, der bereits mit diesem Fotofundus gearbeitet hat. Er bringt seine Expertise für die Zeit zwischen 1920-1940 mit und kennt die abgebildeten Menschen deshalb gut. Seine Arbeit, die Fotos entsprechend zu verschlagworten, war allerdings ein mühsames Klein-Klein und die erhobenen Daten waren kaum weiterzuverwenden, falls sich jemand anderes auch dafür interessiert hätte. Er hätte gern eine offenere Herangehensweise für diese Metadaten gefunden. Ein paar Informatik-Studenten aus Lyon, die sich mit Image Recognition auskennen, horchten auf und boten ihre Tools und Expertise an – nun werden die Fotos automatisch gescannt und alle abgebildeten Menschen bestimmt. Das mag als Methode nichts revolutionär neues sein, konnte aber nur in dieser Kombination von Archivexperten, Historikern und Informatik-Spezialisten passieren.

Wie hat das UNO-Bibliothek darauf reagiert?

Sehr positiv, doch es bleibt nach wie vor ein Lizenz-Problem. Wir würden es am liebsten sehen, wenn die Fotos einfach offen ins Netz gestellt werden, so dass die Online-Crowd mit ihnen arbeiten könnte – da würden bestimmt noch mehr spannende Ideen zusammenkommen. Doch das ist ein langer Prozess, der nun immerhin angestossen wurde – die Verantwortlichen haben ein konkretes Resultat gesehen und werden das nun entsprechend weiterdiskutieren.

Wie geht es weiter mit Open Libraries? Welche weiteren Projekte zeichnen sich ab?

Es waren diverse Institutionen am Event zugegen, die auch über die Öffnung ihrer Datensätze nachdenken. Sehr spannend zum Beispiel: ist das Archiv des welschen Fernsehens ist dabei, einen Riesenbestand an Videos zu digitalisieren. Nun stellt sich die Frage, ob zum Beispiel die archivierten Nachrichtensendungen allen Interessierten zugänglich gemacht werden sollen. Dabei bekommt man es wiederum mit komplexen Copyright-Problemen zu tun, weil oft Fremdbilder in die Sendungen eingebaut wurden. Wir haben das in Genf mit den Verantwortlichen diskutiert und hoffen, dass wir da etwas angestossen haben, das noch weitergehen wird.

Was steht als nächstes auf der Agenda?

Der Open Cultural Data Hackathon im September. Wir wollen eine gewisse Kontinuität in die Open Cultural Data-Diskussion hineinbringen, indem wir jedes Jahr einen grossen Hackathon organisieren, in jeweils wechselnden Orten – nach Bern und Basel dieses Jahr in Lausanne.

Hintergund:

Geneva Open Libraries war Teil von opengeneva, eines regelrechten Hackaton-Festivals, das rund 400 Interessierte in Genf zusammenbrachte, um auf ganz verschiedenen Gebieten Projekte mit offenen Daten zu erarbeiten. Für Lionel Walter war der Event eine wichtige Etappe hin zum dritten Open Cultural Data Hackathon, der dieses Jahr Mitte September in Lausanne stattfinden wird. Die Initianten möchten mit Veranstaltungen in verschiedenen Schweizer Städten darauf hinwirken, Datensätze mit Bezug zur Kultur für alle zu öffnen. Ein weiterer Pre-Event wird am 9. Juni am Schweizer Archivtag in Zürich stattfinden.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.