Die unterschätzte Gefahr diskriminierender Algorithmen
Über die Veranstaltung
Die Einteilung von Menschen in Gruppen ist bereits ein Problem, wenn sie durch andere Menschen geschieht. Doch was, wenn dies in Zukunft gar durch Algorithmen geschieht? Ansätze wie Predictive Policing weisen bereits in diese Richtung. Doch was ist noch denkbar? Wie können die Regeln des liberalen und demokratischen Rechtsstaats auch in Zeiten der Entscheidungsunterstützung durch intransparente Algorithmen funktionieren? Welche Vorteile und welche Nachteile kann diese Entwicklung haben? Und wie lässt sich vermeiden, dass Algorithmen rassistische Denkmuster replizieren und multiplizieren?
mit Martin Eiermann, Christoph Giesa und Teresa Widlok
Die unterschätzte Gefahr diskriminierender Algorithmen
Die Einteilung von Menschen in Gruppen ist ein großes Problem. Doch was, wenn dies durch Algorithmen geschieht? Wir diskutieren mit Martin Eiermann und Teresa Widlok.
Als nächstes