Einträge von Eduard Klein

Wie Bias in KI-Systemen erkannt und verringert werden können

Verzerrungen («Bias») sind massgebliche Ursachen für unfaire und diskriminierende Entscheidungen bei der Nutzung von KI-Systemen. So wurden beispielsweise gutbezahlte Jobangebote algorithmisch fast ausschliesslich bei männlichen Nutzern platziert [1]. Unter Verwendung eines bewusstseinsschaffenden Frameworks zur Sensibilisierung von Entwicklern und Anwendern ist das Ziel, Bias zu identifizieren und zu verringern. Das Framework wurde im Kontext zweier KI-Systeme […]

Auch Algorithmen diskriminieren – wie es ihnen ihre Programmierer vorgeben

Unternehmen setzen vermehrt Künstliche Intelligenz (KI) ein, um Entscheidungen zu treffen oder basierend auf deren Vorschlägen zu entscheiden. Diese Vorschläge können auch diskriminierend sein. Um dies zu verhindern, müssen wir nicht nur Programmcodes auf technischer Ebene verstehen, sondern auch menschliche Denkweisen und Entscheidungsprozesse einbeziehen, um systematische Täuschungen zu erkennen und zu reduzieren. CO-Autorin Thea Gasser […]

Open Government Data für barrierefreie Anwendungen am Beispiel einer App für Blinde

Behörden stellen Daten zur Sekundärnutzung als Public Sector Information zur Verfügung, (barrierefreie) Anwendungen können diese nutzen und so einen Mehrwert schaffen. In diesem Beitrag stehen Anforderungen an die Bedienbarkeit einer Blinden-App zur Orientierung in Städten wie auch Anforderungen an die Daten im Fokus. Neben den weitverbreiteten Points of Information werden Points of Orientation und eine […]