Autor

Einträge von Mascha Kurpicz-Briki

Bedrohung, Befreiung und Beziehung – wie KI in Filmen dargestellt wird

Über die letzten Jahrzehnte gab es zahlreiche Filme, welche sich dem Thema Künstliche Intelligenz (KI) gewidmet haben. Doch in welcher Form wurde diese dargestellt? Unsere Spezialistin, Mascha Kurpicz-Briki beschreibt die häufigsten Interpretationen. Künstliche Intelligenz (KI) hat sich in den letzten Jahrzehnten zu einem zentralen Thema in der Filmindustrie entwickelt. Von den frühen Science-Fiction-Klassikern bis hin […]

Über Bias in Sprachmodellen und Datenanreicherung für KI in der psychischen Gesundheit

Sind gesellschaftliche Stereotypen in deutschen Sprachmodellen kodiert, und wie können Techniken zur Datenerweiterung Klassifizierungsaufgaben im Kontext der psychischen Gesundheit unterstützen? Aktuelle Ergebnisse zu diesen Themen haben Forschende der BFH auf der SwissText-Jahrestagung 2024 vorgestellt. Die Gruppe für Angewandtes Maschinelles Lernen an der Berner Fachhochschule ist an vielen innovativen Projekten im Bereich Natural Language Processing (NLP) […]

Über die blinden Flecken von KI – von Diskriminierung bis technologische Verantwortung

Die Beziehung zwischen KI und gesellschaftlicher Vielfalt ist kompliziert. BFH-Forscherin Mascha Kurpicz-Briki geht dem in ihrem Interview mit der KI-Koryphäe Roger A. Søraa nach, der sich in seinem bahnbrechenden Buch «AI for Diversity» damit beschäftigt hat Er warnt vor den subtilen Gefahren der KI-induzierten Ausgrenzung und betont die übersehenen Schnittmengen der Diskriminierung. Er stellt nicht […]

Mehr als ein Chatbot – wie KI verantwortungsvoll im Unternehmen eingesetzt werden

ChatGPT, Midjourney & Co. haben gezeigt, wieviel Potenzial Software mit maschinellem Lernen hat. Doch um diesen Wandel verantwortungsvoll zu gestalten, müssen auch die Risiken dieser Technologien beachtet werden. Unsere Forscherin Mascha Kurpicz-Briki untersucht, wie KI verantwortungsvoll in Unternehmen eingesetzt werden kann. Hinter dem Begriff künstliche Intelligenz verbirgt sich heutzutage meistens das sogenannte maschinelle Lernen. Eine […]

Wie neue Werkzeuge Bias in KI-Systemen erkennen und abschwächen

Voreingenommenheit in der KI ist eine grosse Herausforderung für die heutigen Technologien der künstlichen Intelligenz (KI). Die im Horizon Europe-Projekt BIAS entwickelte Proof-of-Concept-Technologie adressiert dieses Problem. Die ersten Ergebnisse wurden kürzlich auf dem EWAF’23: European Workshop on Algorithmic Fairness von BFH-Forscher*innen in Zusammenarbeit mit Partner*innen der Universität Leiden vorgestellt. In den letzten Jahren haben viele […]