Externes Video von YouTube laden.

Mehr dazu in unserer Datenschutzerklärung.

Wenn Algorithmen Oma mobben

Auch künstliche Intelligenz reproduziert Vorurteile – mit Folgen für all jene, die bereits benachteiligt werden. Wie entwickeln wir Technologien, ohne Menschen auszuschließen? Mit der Wissenschaftlerin Jeanette Hofmann, dem Journalisten Sebastian Meineck, und der IT-Expertin Catrin Schröder-Jaross.

  • 91 Min.

Künstliche Intelligenz unterstützt uns in vielen Bereichen des beruflichen und privaten Lebens. Doch was passiert, wenn eine Software Bewerberinnen per se benachteiligt, People of Color von Gesichtserkennungssystemen nicht erkannt werden und Bonitätsprüfungsprogramme ältere Menschen von vornherein ausschließen?

Vorurteile seitens der Entwickler:innen und innerhalb der anschließenden Trainingsdaten sorgen immer wieder dafür, dass Menschen diskriminiert werden. Was das für Folgen hat und wie wir Technologien entwickeln können, ohne Menschen auszuschließen oder zu schaden, diskutieren wir mit unseren Gästen: Jeanette Hofmann, Leiterin der Forschungsgruppe „Politik der Digitalisierung“ am Wissenschaftszentrum Berlin für Sozialforschung, Tech- und Investigativjournalist Sebastian Meineck von netzpolitik.org und Catrin Schröder-Jaross, IT-Expertin und Co-Host des Podcasts „Mind the Tech - Cyber, Crime, Gesellschaft“.

Es moderiert Isabelle Ewald, IT-Kommunikatorin.

Veranstaltung auch in Gebärdensprache