Bias und Fairness algorithmischer Entscheidungssysteme
Wie entstehen Verzerrungen in KI-Systemen?
Wen treffen sie – und warum oft völlig unerwartet?
Wie können wir Fairness überhaupt messen?
Die Lernplattform „BIAS & FAIRNESS ALGORITHMISCHER ENTSCHEIDUNGSSYSTEME“ klingt komplizierter als der Inhalt tatsächlich ist, stammt von der Universität Ulm und beantwortet nicht nur diese Fragen:
In drei kompakten Modulen führt die Seite durch Grundlagen, zeigt anschauliche Beispiele und bietet eine Fallstudie, an der man das Gelernte direkt ausprobieren kann. Die Einheit dauert rund 90 Minuten und öffnet einen klaren Blick darauf, wie KI-Modelle arbeiten – und wo sie aus dem Gleichgewicht geraten.
Für Lehrende, Studierende und Verwaltungspersonal ist das Angebot eine hilfreiche Orientierung im Alltag mit KI. Das LIT empfiehlt diese Ressource ausdrücklich, weil sie vermittelt, was künftig überall gebraucht wird: Kenntnisse dazu, wie wir KI fair, reflektiert und verantwortungsvoll einsetzen.
Hier eine Kostprobe:
Wie kann Bias in einem Entscheidungssystem definiert werden?
Bias bezeichnet allgemein einen Verzerrungseffekt. Die Psychologie versteht darunter Einstellungen oder Stereotypen, welche die Wahrnehmung unserer Umwelt, Entscheidungen und Handlungen positiv oder negativ beeinflussen. In der Statistik wird ein Bias als Fehler im Rahmen der Datenerhebung und -verarbeitung oder die bewusste oder unbewusste Beeinflussung von Proband*innen verstanden. Bias kann in vielen Formen und Ausprägungen auftreten, von denen einige zu Unfairness führen können. (Quelle: https://bias-and-fairness-in-ai-systems.de/)


