Schlagwortarchiv für: Open Data

June-July: Special Issue focused on Missing Links

Today, Open Data is an imperative. Government data, research data, and data from various other fields must be freely accessible and reusable – of course within the limits of legitimate interests of privacy and secrecy. Open Data provides value for democracy and for the economy: Open Data furthers participation, increases transparency, opens up new business opportunities, helps facilitate decision making and drives the app we use every day. To be open, data must be findable, interoperable, accessible and reusable. Free reuse implies that there are no legal, economic or technical barriers to free access – the totality of a dataset needs to be available for download or accessible through an API.

Government and research data are the result of administrative or research activities that are completely or often largely financed by public funds. They deal with issues of public interest. It therefore seems legitimate to open the resulting datasets to the public, so that the data can be exploited in new, fruitful ways that were not originally envisioned. As datasets are non-rivalrous goods, multiple usages do not diminish their value, quite to the contrary!

With these multiple usages of data in mind, Tim Berners-Lee has devised his five-star maturity model that posits that the most valuable form of open data is linked open data. Linked data allows data users to concentrate their efforts on the analysis and the exploitation of the data by greatly reducing the effort required to re-capture and to re-aggregate the data for every new purpose. Thus, linked data is a modest extra investment made by data producers or data holders for the greater benefit of all potential and real data users.

As data can be put to a variety of uses, it is impossible to foresee or plan for them from the outset. New questions trigger creative reuses of existing data, and serendipity leads to data being exploited in novel ways. However, data are typically created with a particular intention and for a specific purpose. And the context of their original production matters; data cannot be combined at will, for if we do, we risk misguided interpretations and erroneous applications.

It is therefore crucial to make data available in a form that preserves enough information about their original context, permitting informed re-use by third parties. Furthermore, it is indispensable that the data be made available in a form that facilitates their combination. Linked open data is the state-of-the-art approach to achieve this. However, to fully exploit its potential, we need to foster cooperation across organizations and sectors even in areas where collaboration has rarely taken place. Besides aligning data models and providing the technical infrastructure, coordination is needed in various areas to help organizations acquire the necessary capacity and to foster the required skills among their workforce.

In order to close these gaps, the opendata.ch association has created a linked open data working group. It is open to everyone who is willing to support concerted efforts to promote linked data in Switzerland, not only by calling upon data providers to make an extra effort to facilitate the re-use of their data, but also by enabling cooperation among various stakeholders, and by empowering people interested in using linked open data. Each of the articles of this thematic issue of SocietyByte illustrates one or several of the “missing links” in the world of the semantic web that need our attention if we want to create a flourishing linked data ecosystem.

We wish you an exciting and insightful reading.

Creative Commons LicenceCreate PDF

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Data Governance as part of a new Swiss eGovernment Strategy?

“Your data is only as good as what you do with it and how you manage it” [1]. This quote summarizes the problem that eGovernment Switzerland is currently facing.

Infrafederal Data Governance is needed
Many data are collected and stored in a more or less decentralized way from different public administrations at the three levels of the State (federal, cantonal and communal). The current system lacks efficiency, however, mainly due to the following reasons:

  1. The lack of centralized overview of existing data collection and variables already available for public administrations. This overview can be obtained by the creation of a metadata system that acts over time as a centralized catalogue of available data. The data protection level of each variable should also be indicated in this catalogue as well as the data ownership.
  2. The structure of the legal basis. The focus point of Swiss laws is to authorize the collection of data for business specific purposes like health, social, statistic, finance, transport and so on. This public policies oriented collection of data is a top-down approach which is entirely understandable and should stay mandatory (public administrations should only collect data needed for achieving their tasks if they do not already exist in official data collection). However, these public policies oriented and decentralized collection of data also creates data silos. Many data are collected in different contexts by different agents but are virtually identical as they concern the same data subject.
  3. Access for public servants to existing official data collections needs to be simplified as often as possible. Where personal data are concerned, data protection legislation needs of course to stay the first principle to manage access to these data but the creation and maintenance of data silos should not be possible without a very transparent and clear reason.

The inefficiency in the way how we collect and manage data today in order to achieve the tasks of public administrations does augment, not reduce the administrative burden of respondents (i.e. citizens, enterprises, authorities). Switzerland recently signed the European declaration on eGovernment (Tallinn Convention) [2] and its six principles show the right way. Data governance is a key issue that eGovernment Switzerland needs to face. With the revision process of the national eGovernment strategy launched, now seems to be the right moment to define better data governance in order to make the entire system more efficient.

What do we need to address?
The main reason that could explain the above mentioned problems is the absence of an existing National Data Governance (NDG). National data governance refers to governance which applies to the three levels of public administrations (federal, cantonal and communal). Public administrations need to address this challenge by implementing centralized data governance and at least a centralized data and metadata architecture but decentralized data management driven by business and not by IT.

This kind of governance does not exist at present and should now be officialy implemented as soon as possible. The following first steps could be adressed:

  1. The implementation of a National Data Quality Management (NDQM) that should help public administrations to structure their activities around Data Governance. Frameworks, competence centers (e.g., competence center Corporate Data Quality) have the maturity to help public administrations to implement this NDQM. Topics such as Master Data Management (MDM), Data and Metadata Architecture, should be adressed under this umbrella.
  2. The implementation of a National Data Infrastructure which could be defined as “a network of linked official administrative registers built over base registers (People, Enterprises and Location) representing the core vocabularies and managed under a comprehensive classification scheme; accessed and updated on the basis of authorised administrative roles and acquired personal roles for an integrated, version controlled, auditable, enterprise wide records management system.” [4]. Standards for data exchange between this base and administrative registers already exist, e.g., eCH and unique identifiers (UID, EGID, EWID,…). Without this National Data Infrastructure, it seems just impossible to embrace the challenge of reducing the administrative burden of respondents. Only the variables that are not already existing in this infrastructure should be collected. The Open Government Data Platform should also be seen as a building block of this National Data Infrastructure. The use of Cloud and Blockchain technologies need to be integrated into this system and not be treated as an issue apart.

Are we ready for Data Analytics?
Big Data (social network, satellite imagery, …) and the Internet of Things (IoT) are current buzz words, but they are also referring to a new ecosystem that has dramatically changed over the last five years. The increasing amount of available data that governments could and should have access in order to support decision making is growing exponentially [3]. These data are often in the hand of private companies that are more and more located neither in Switzerland nor Europe. These private companies do not need to initiate surveys to collect all this information, it is part of their digital value chain and business model. How should public administration react to this new reality? Can civil servants embrace these new challenges in the light of an established National Data Governance and a National Data Infrastructure?

Today different legal bases (include data protection laws) exist depending in what context the data are generated. The skills, knowledge, and infrastructure that public servants will need to collect, integrate and analyze all thisstructured and unstructured data (Analytics) do not figure on the roadmap of the eGovernment Strategy 2016 – 2019. There is a certain need to rethink these priorities.

Analytics in the context of Big Data is not just an extension of existing Business Intelligence concepts but a fundamental change regarding the algorithms that can and should be used (advanced statistics, data science, machine learning, deep learning and so on).

The skills and the knowledge that public servant will need to collect, integrate and analyse all those structured, semi-structured and unstructured data is more or less not existant in the public administration. It needs to be developped quickly. Governments at the three levels of federalism need to develop the needed hard and soft skills [5] to work with data in order to achieve their tasks. The accurate capacity to analyse the “right” data quickly in a correct and transparent way is key in this context.

Should Data Governance be part of the eGovernment Strategy?
The answer seems to be clearly yes. So let us stop dabbling and make use of the current revision process of the Swiss national eGovernment Strategy to tap the potential of data for our society and economy, and let us treat data as a key strategic asset [6], so ensuring their veracity the related data quality and data governance become imperative.


[1] Judith Hurwitz, Daniel Kirsch, Machine Learning, IBM Limited Edition, 2018, pp. 1.

[2] European declaration on eGovernment, Federal Department of Finance, 2017. https://www.efd.admin.ch/efd/en/home/dokumentation/nsb-news_list.msg-id-68342.html

[3] Banning Garrett, Big Data is changing your world, ETHZ, 2013. http://www.css.ethz.ch/en/services/digital-library/articles/article.html/173004

[4] Data-Driven Public Administration, National Data Strategy – Malta, 2016, pp. 2. https://mita.gov.mt/en/nationaldatastrategy/Documents/Data-Driven%20Public%20Administration%20(Malta).pdf

[5] Open Data Maturity 2016, European Commission, Directorate General for Communications Networks, Content and Technology, 2016, pp. 65. https://www.europeandataportal.eu/sites/default/files/edp_landscaping_insight_report_n2_2016.pdf

[6] Enter the Data Economy, EU Policies for a Thriving Data Ecosystem, European Commission, European Political Strategy Center, 2017, pp. 1. https://ec.europa.eu/epsc/sites/epsc/files/strategic_note_issue_21.pdf

Creative Commons LicenceCreate PDF

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Daten im E-Government – «Once Only»!

Baut man heute den «digitalen Staat» ohne eine Legacy, so ist es selbstverständlich, dass Bürgerinnen und Bürger sowie Unternehmen ihre Daten den Behörden «once only» zur Verfügung stellen. Die digitale Transformation baut aber auf Bestehendem auf; in unserem konkreten Fall ein föderiertes System und eine 700-jährige Staatstradition. Die Europäische Union setzt nun «once only» auf die Agenda. Was heisst das für die Schweiz?

Die Tallinn Deklaration zu E-Government
Die Schweiz hat im Herbst 2017 zusammen mit anderen 31 Ländern aus der Europäischen Union und der Europäischen Freihandelsassoziation die «Tallinn Deklaration zu E-Government» unterzeichnet und bekennt sich damit zu einer Weiterentwicklung von E-Government gemäss den in Europa anerkannten Leitprinzipien. Mit der Deklaration wird eine gemeinsame Basis gelegt, um die digitale Verwaltung international und national voranzutreiben. Unter anderem soll die Digitalisierung von Dienstleistungsprozessen vorangetrieben werden und für alle zur Verfügung stehen. Auch verlangt die Deklaration, dass die Dateneingabe für Bürgerinnen und Bürger sowie Unternehmen zuverlässig und sicher sein und nur einmal getätigt werden muss. Zudem wird die Interoperabilität von IT-Systemen national und international angestrebt.

Tab. 1 Fünf Prinzipien der Tallinn Deklaration zu E-

Einsicht in die «Tallinn Deklaration zu E-Government» erhält man hier.

Once Only Prinzip (OOP) – was will die EU damit?
Die Europäische Union will mit der Umsetzung des OOPs bis 2022 die administrativen Lasten durch grenzüberschreitende Zusammenarbeit reduzieren. Weiter sollen Auffindbarkeit, Qualität und Zugänglichkeit der Basisregister erhöht werden. Mit der Umsetzung des Once Only Prinzips soll auf nationaler und internationaler Ebene die Wiederverwendungskultur der Daten in den Behörden gefördert werden. Die EU unterstützt die Digitalisierung aller Kerndaten und die Schaffung von internationalen Datenaustauschplattformen.

Um die Machbarkeit der Umsetzung dieses Prinzips zu testen, die unterschiedlichen Mitgliedstaaten zu sensibilisieren sowie die nötigen Kompetenzen zu identifizieren und trainieren, lancierte die EU zwei grössere Forschungs- und Entwicklungsprojekte zum Thema.
Mit dem EU Large Scale Pilot «TOOP» wird OOP anhand von Unternehmensdaten untersucht. 50 Partner aus 20 Nationen arbeiten an konkreten Anwendungsfällen wie z. B. die Aktualisierung von zusammenhängenden Unternehmensdaten.
Mit dem EU Coordinated Support Action Project «SCOOP4C» wird OOP im Kontext von Bürgerdaten getestet. Fünf Partner aus Deutschland und Griechenland bemühen sich um die Wissensdissemination zu OOP, analysieren Stakeholder, Hürden und Befähiger und identifizieren Massnahmen, auch regulativer Natur.

Was heisst das für die Schweiz?
Im Dezember 2017 hat SocietyByte Bundesrat Ueli Maurer zum Thema interviewt (Interview hier). Gefragt nach seiner Hauptmotivation, antwortete er: «Die Schweizer Behörden haben die Bedeutung des E-Government früh erkannt. Die aktuelle E-Government-Strategie Schweiz wurde für den Zeitraum 2016-2019 beschlossen. Sie soll in Kürze erneuert werden. Dazu bildet die Deklaration von Tallinn eine wichtige Leitlinie; die fünf darin beschriebenen Prinzipien sollen auch für die Schweiz zur Anwendung kommen und baldmöglichst umgesetzt werden.»

Eine besondere Herausforderung stellt in der föderalen Schweiz das «Once Only Prinzip» (OOP) dar, wonach die Verwaltung sicherstellt, dass Personen und Unternehmen im Kontext von E-Government dieselben Daten nur einmal an Behörden übermitteln müssen. Das setzt die Fähigkeit voraus, verfügbare Daten – unter Wahrung des Datenschutzes – über bestehende Systeme und staatliche Ebenen hinweg wiederzuverwenden.

Aus «Kundensicht» haben wir in der Schweiz bereits Erfolgsgeschichten in Bereich «Once Only»: Die Umsetzung des elektronischen Umzugs oder des EasyGov-Portals sind gute Beispiele dafür. Die Verabschiedung von Gesetzen zu Registerharmonisierung (RHG), Geoinformation (GEoID) oder Unternehmensidentifikation (UID) legten die Grundlage für zentrale Komponenten einer nationalen Dateninfrastruktur. Die Schweiz muss nicht von Null anfangen: Bestehende Ansätze und Modelle der Implementierung müssen eruiert werden. Anforderungen an mögliche Umsetzungen im föderierten System sollen erhoben werden, damit die staatliche Transformation die Wiederverwendungskultur, aber auch die Informationssicherheit – im Sinne von Verfügbarkeit, Integrität und Datenschutz – ermöglichen kann. Neue Ansätze von «Good Governance» sollen Möglichkeiten der Nutzerbefähigung reflektieren.

 

Creative Commons LicenceCreate PDF

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Märzausgabe: Das Datenfundament des E-Government

Wie kann man die Zusammenarbeit in der Verwaltung zwischen autonomen Organisationen «minimal invasiv» gestalten? Das heisst: Wie kann man erfolgreich zusammenarbeiten, ohne dass sich die Beteiligten zu stark verändern müssen?

Die vorherrschende Meinung ist, dass man im E-Government nur durch zentrale Steuerung vorwärts kommt und dass konkret die Prozessstandardisierung uns einen wesentlichen Schritt vorwärts bringt. Mit der stark ausgeprägten Schweizer Subsidiarität ist das kaum vereinbar. Es liefert auch nicht notwendigerweise mehr Zusammenarbeit. Im schlimmsten Fall führt es zur Logik „Jeder für sich, aber alle strikt nach Norm.“ Erfunden wurde das Konzept der Prozessstandardisierung in der Wirtschaft, um die zentrale Steuerung zu vereinfachen.   

Eine Alternative zu diesem etablierten E-Government-Denken ist die Idee des Teilens. Teilen heisst hier „anderen Nutzungsrecht einräumen und die tatsächliche Nutzung einfach machen“. Im Fall von E-Government sind das Nutzungsrechte an den eigenen Daten, Applikationen und Diensten, sowie natürlich auch das Recht, Prozesse freiwillig zu kopieren. Es wird etwas angeboten, statt verordnet. Dieser Unterschied ist aber mehr ein gefühlter, denn ein realer. Damit das alternative Modell nämlich funktioniert, braucht es ein gemeinsames Identitäts- und Zugriffsmanagement und Datenstandards, zudem möglichst auch standardisierte Dienste-Schnittstellen. Das „Teilen“-Konzept im E-Government unterscheidet sich vom konventionellem Denken daher primär durch geringere Invasivität und grösseren Nutzen. Es schränkt das eigene Gestalten der operativen Verwaltungsarbeit durch die Gemeinde oder den Kanton viel weniger ein. Und es schafft offensichtlichen Nutzen durch Reduktion von Redundanz, Softwarekosten, Aufbau- und Betriebskosten von Diensten. Es stammt ebenfalls aus der Wirtschaft und dient dort insbesondere auch der Erhöhung des Werts von Kundendaten. „Teilen“ ist also ein Konzept für mehr Effizienz und höhere Wertschöpfung.

Das alternative Konzept ist dabei nicht gänzlich neu. Es wird unter anderem durch Registerharmonisierung und Registerintegration umgesetzt. Für eine konsequente Umsetzung sollten eine ganze Reihe von Fragen zum WAS und WOZU beantwortet werden:

  • Welche Standards für den Informationsaustausch sind notwendig?
  • Was kann mit konkreten Standards erreicht werden?
  • Wo liegen die Grenzen einer Standardisierung, die sich auf den Informationsaustausch beschränkt?

Wichtig sind auch Antworten auf Fragen zum WIE, beispielsweise wie die Governance des Teilens definiert und kontrolliert werden soll. Dabei ist der Umgang mit dem Datenschutz ein zentrales Thema.

„The one big thing“ beim Thema Daten im E-Government ist die Umsetzung des „Only Once“ Prinzips. Einwohnerinnen und Unternehmen sollen Daten nicht mehrfach den Behörden liefern müssen. Umsetzen lässt sich dies nur in einer akzeptierten Logik des Daten-Teilens. Welche Architektur tatsächlich im Large Scale Pilot TOOP ausgewählt wird, entscheidet darüber, ob „Once Only“ analog zur grenzüberschreitenden Nutzung von elektronischen Identitäten und digitalen Unterschriften per Regulierung zur Norm erhoben wird oder nicht. Denn eine Regulierung, die das „Teilen“ vorschreibt, macht nur Sinn, wenn sie in der Praxis einfach machbar ist.

Ich hoffe, Sie finden viele relevante und wegweisende Antworten in dieser Ausgabe und wünschen Ihnen ein erbauliches Lesen. In der Hoffnung, dass ein guter Fachdiskurs über Daten im E-Government einen nützlichen Beitrag zum Entstehen einer brauchbaren Datenstrategie für die Schweiz führt,

herzlichst Ihr Reinhard Riedl.

Creative Commons LicenceCreate PDF

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Conceptualizing a National Data Infrastructure for Switzerland

Abstract

A national data infrastructure (NDI) provides data, data-related services and guidelines for the
re-use of data to individuals and organizations. It facilitates efficient sharing of data, supports
new business models, and is thus a key enabler for the digital economy, open research, societal
collaboration and political processes. While several European countries have taken steps to set
up data infrastructures cutting across institutional silos, approaches vary, and there is no common
understanding of what a NDI exactly comprises. In Switzerland, activities are still at a
conceptual stage. In order to foster a shared vision of what a NDI is about, stakeholder
interviews were carried out with representatives of public administration, research, civil society,
and the private sector. There is broad consensus among key stakeholders that a NDI is to be
conceived as a nationwide distributed technical infrastructure allowing the sharing of data, based
on predefined rules. Our findings also suggest that the notion of a NDI should be approached
from four perspectives: a big data, a base register, an open data, and a mydata perspective. For its
implementation, effective coordination across several dimensions (ethical, legal, political,
economical, organizational, semantical, and technical) is crucial, which calls for a truly
multidisciplinary approach.

Publication (pdf)

Creative Commons LicenceCreate PDF

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

«Wir haben mehr Datensätze als Programmierer» – Interview B. Estermann Teil II

So viele Kulturdaten wie möglich für den 3. Schweizer Kulturhackathon gewinnen – das Ziel von Koordinator Beat Estermann ist erreicht: die teilnehmenden Hacker können in diesem Jahr aus dem Vollen schöpfen. Mit den Daten werden sie Apps programmieren oder Spiele entwickeln. Im zweiten Teil unseres Interviews spricht Beat Estermann über Altruismus, Kreativität und Best Cases im Bereich Open GLAM.

Wer den Begriff Hackathon zum ersten Mal hört, denkt vielleicht zuerst an den Hackerangriff Wannacry. Wie sind die Hacker, die an Ihren Hackathon kommen?
Der Begriff Hacker stammt ab vom englischen Wort Hack. Das bezeichnet eine schnell gefundene, kreative Lösung, die vielleicht nicht ganz bis zum Ende durchdacht ist. Ziel ist es, in kurzer Zeit etwas Angewandtes zu erfinden. Mit Hack assoziiere ich auch den Aspekt des Innovativen, des Unkonventionellen, des Unerwarteten, etwas zu probieren, was nicht alle machen.

Was findet an dem Hackathon statt?
Am Hackathon geht es grundsätzlich darum, Personen aus verschiedenen beruflichen Hintergründen  aus dem GLAM-Umfeld zusammen zu bringen. Zwei Tage lang arbeiten sie an konkreten Projekten basierend auf offenen Daten. Die Idee ist einerseits aufzuzeigen, was man alles mit den Daten machen kann und damit den Gedächtnisinstitutionen einen Ansporn zu geben, ihre Daten zur Nutzung durch Dritte freizugeben oder selber neue Anwendungen zu schaffen. Der Hackathon erlaubt es den verschiedenen Players, neue Ideen zu entwickeln, sie zu konkretisieren, zu sehen, welche Kompetenzen es zu ihrer Umsetzung braucht, und sich eine erste Vorstellung davon zu machen, wer über diese verfügt mit wem man zusammenspannen könnte.

Dann nutzen Sie den Event auch zum Lobbying in Sachen Open GLAM?
Der Hackathon ist ein wichtiger Anlass, um auf die Institutionen zuzugehen und nachzufragen, ob und von wem wir zusätzliche Daten bekommen können. Es gibt in der Schweiz rund 1500 Gedächtnisinstitutionen. Mit Massenmails haben wir bereits alle angeschrieben. Persönlich angesprochen haben wir 200-300. Es ist ein dauernder und langwieriger Prozess. Bei gewissen Institutionen dauert es von der ersten Kontaktnahme bis zur ersten Freigabe von Daten drei bis vier Jahre. Dabei geht es uns nicht allein um die Daten, sondern auch um einen Kulturwandel seitens der Institutionen.

Zählen Kultureinrichtungen wie Theater und Opernhäuser auch zu Gedächtnisinstitutionen? Oder anders gefragt, was verbindet Kulturdaten und Open GLAM?
Ich benutze die Begriffe „offene Kulturdaten“ und „Open GLAM“ als Synonyme. Generell wäre der Begriff der Kultur natürlich weiter zu fassen als jener der GLAM: Kultur findet im Jetzt statt, die Gedächtnisinstitutionen dokumentieren Ereignisse, die bereits vergangen sind. Gewisse staatliche Archive möchten nicht zu den kulturellen Institutionen gezählt werden, weil sie nicht in erster Linie eine kulturelle, sondern eine staatspolitische Aufgabe wahrnehmen. Sie stehen für die Transparenz und Nachvollziehbarkeit des staatlichen Handelns. Darüber hinaus lassen sich ihre Bestände natürlich auch zur Kultur eines Landes zählen.

Welche Institutionen erwarten Sie zum Hackathon?
Dabei sein werden Institutionen wie das Bundesarchiv, die Nationalbibliothek, das Literaturarchiv, verschiedene Zürcher Archive, die ETH-Bibliothek, Swissbib, die Universitätsbibliotheken Basel und Lausanne, das Landesmuseum sowie etliche weitere Institutionen.

Wie viele Datensätze bieten Sie an?
Aktuell haben wir über 80 Datensätze von über 40 Institutionen; d.h. wir haben mittlerweile mehr offene Datensätze als Programmierer am Hackathon teilnehmen. Es ist schwer vorauszusehen, wie viele es noch werden, denn viele Institutionen melden ihre Datensätze in den letzten beiden Wochen vor dem Hackathon an.

Das war früher wohl schwieriger?
Ja, beim ersten Hackathon hatte ich Angst, dass nicht genügend Daten bereit stehen würden. Ohne Daten funktioniert ein Hackathon nicht. Mittlerweile haben wir jedoch genügend Datensets auch aus den früheren Events und jedes Jahr kommen neue hinzu. Wir können jederzeit einen Hackathon veranstalten und sind nicht mehr so abhängig davon, ob uns die Institutionen neue Daten liefern.

Die Daten werden primär für den Hackathon bereitgestellt. Für wen sind die Daten anschliessend gedacht, wenn sie öffentlich zugänglich sind?
Theoretisch kann sie sich jeder ansehen, genau wie sich jeder im Museum eine Ausstellung ansehen kann. Aber es braucht Intermediäre, Vermittler. Herr und Frau Schweizer gehen ja nicht unbedingt selbst in ein Archiv, um nach Daten zu suchen. Sie würden die Kulturdaten bearbeitet konsumieren – sei es in Wikimedia, mittels einer App, oder indem sie einen journalistischen Beitrag darüber lesen, welcher beispielsweise Erkenntnisse aus der historischen Forschung vermittelt.

Wer sind die Vermittler bzw. die Hacker?
Es sind Historiker, die historische Auswertungen machen, App-Programmierer, die Anwendungen für ein breites Publikum entwickeln, oder Künstler, die die Daten in ein Werk verarbeiten. Zu unseren Hackern zählen Ideengeber, d.h. Leute, die sich mit Kulturdaten auskennen, eine bestimmte Frage zu den Daten haben oder kreative Ideen in den Raum stellen. Wichtig sind auch Webdesigner und Software-Entwickler, welche die Ideen umsetzen, oder die Vertreter der Gedächtnisinstitutionen, welche ihre Fachexpertise einbringen. Wir hatten aber auch schon PerformancekünstlerInnen unter den Teilnehmern; und auch für DatenjournalistInnen würden sich gewisse Datensätze eignen.

Welche Veröffentlichung im Bereich Open GLAM ist für Sie ein Best Case?
Eines der frühen Highlights war der Foto-Upload des deutschen Bundesarchivs. Dabei sind etwa 100.000 Bilder aus dem 2.Weltkrieg erstmals für die breite Öffentlichkeit zugänglich gemacht geworden. Die grösste Aufgabe war dabei, dass die Metadaten in grossen Teilen ergänzt und überarbeitet werden mussten, weil die Beschreibungen noch dem Zeitgeist des 3. Reiches entsprachen. Für die Community war das ein sehr erfolgreiches Ergebnis. Seither gibt es viele andere gute Beispiele; jedes hat seine Eigenheiten.

Woher kommt generell die Motivation, Daten oder eben Fotos frei zugänglich zu machen?
Dafür gibt es verschiedene Gründe. Demokratische Ideen, Transparenz oder auch Altruismus. Im Bereich GLAM haben die Gedächtnisinstitutionen nicht nur den Auftrag zu bewahren, sondern auch zu vermitteln und da öffnet das Internet viele neue Türen. Zum Beispiel sind manche Institutionen in einer thematischen Nische angesiedelt. Dank dem Internet können sie ein weltweites Publikum erreichen. Zudem ist es nur eine Frage der Zeit, bis die Menschen die neuen Arten des Zugangs und der Vermittlung von Wissen nachfragen.

Wann genau entsteht die Nachfrage – schon vor der Veröffentlichung der Exponate, Informationen oder Daten oder erst danach?
Das ist eine schwierige Frage. Die Überlegungen, Wissen zu sammeln und aufzuzeichnen, gehen zurück bis in die Antike. Es gab immer Menschen, die sich mit Wissen beschäftigten. Die Aufklärer veröffentlichten die ersten grossen Enzyklopädien, um das Wissen der Menschheit zugänglich zu machen. Die Idee an sich ist also schon alt. Sie entwickelte sich mit dem technologischen und gesellschaftlichen Fortschritt weiter, und im Zuge der Demokratisierung wandelte sich zudem das Verständnis des Staates. Früher war das Staatswissen oftmals geheim, unter anderem um die Herrschaft zu erleichtern. In der Demokratie können und sollen aber alle mitwirken und damit das funktioniert, braucht das Volk Informationen. Die Grundlagen des staatlichen Handelns müssen öffentlich zugänglich sein. Die heutige Ausprägung des Open Content ist eine logische Weiterführung dieser Entwicklung und eine wichtige Grundlage einer offenen Gesellschaft.

Gibt es noch die Möglichkeit, sich anzumelden?
Ja, der Anlass ist offen für jeden. Am besten funktioniert es für diejenigen, die in einem Team ein prototypisches Projekt mit den Datensätzen realisieren möchten. Dazu kann man mit einer eigenen Idee an den Event kommen und sie am Anfang des Events kurz vorstellen. Man kann sich aber auch während der Gruppenbildungsphase einem Team anschliessen, das eine Projektidee verfolgt, die man selber interessant findet. Für diejenigen, die noch nie einem Hackathon beigewohnt haben, würde ich unbedingt empfehlen, dass sie die Gruppenbildungsphase am Anfang des Events nicht verpassen. Einfach nur reinschauen, ohne sich selber aktiv einzubringen, funktioniert nur bedingt. Wer aktiv mitmacht, hat sicherlich mehr vom Event. Wir bieten aber auch ein interessantes Workshop-Programm, bei dem man sich über das eigentliche Hacken hinaus, zu verschiedenen Themen kundig machen und austauschen kann.


Hackathon: Am 15. und 16. September findet der Swiss-Open-Cultural-Data-Hackathon an der Universität Lausanne statt. Die Teilnahme ist gratis, Interessierte sind gebeten, sich bis 31. August anzumelden.


Zur Person

Beat Estermann ist stellvertretender Leiter des Schwerpunkts «Open & Linked Data» am E-Government-Institut der Berner Fachhochschule. Er forscht im Themenbereich Open Data und OpenGLAM, d.h. Open Data und Crowdsourcing in Gedächtnisinstitutionen. Zudem koordiniert er die schweizerische OpenGLAM- Arbeitsgruppe des Vereins opendata.ch und die eCH-Fachgruppe Open Government Data.


 

Creative Commons LicenceCreate PDF

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.