1 min

Ziel: Vorurteilsfreie KI-Systeme

Vera – ein Tool, das helfen soll, KI verantwortungsvoll in Unternehmen einzubetten

Ziel: Vorurteilsfreie KI-Systeme
Ziel: Vorurteilsfreie KI-Systeme
Copyright: Martin Lifka Photography

Unternehmen verwenden immer häufiger künstliche Intelligenz. Diese ist aber nie neutral, sondern trägt die Weltsicht der Entwicker*innen in sich. Ein Tool soll bei der vorurteilsfreien Einbettung helfen.

Der Forschung Spezial Artikel beleuchtet das Konfliktpotenzial der KI Systeme in der Arbeitswelt: Alois Pumhösel: "Wie KI-Systeme die Arbeitswelt verändern", derStandard, 1. Juni 2021

Gefahr: Vorurteile der Entwickler*innen werden übernommen

"Die Systeme sind letztendlich nicht besser als ihre menschlichen Entwickler*innen, sondern verinnerlichen deren vorurteilsbehafteten Blick auf die Welt", berichtet DerStandard. 

Diesen Aspekten widmet sich unser Researcher Lukas Daniel Klausner, Forschungsgruppe secure societies vom Institut für IT-Sicherheitsforschung in einem von der Arbeiterkammer unterstützten Projekt gemeinsam mit Angelika Adensamer, Juristin am Vienna Centre for Societal Security.

"Von der Perspektive der Organisationsentwicklung muss klar definiert sein, welche Ziele mit der Einführung der KI-Systeme verfolgt werden – und ob es Zielkonflikte beispielsweise zwischen Effizienzsteigerung und Qualitätssicherung gibt", so Klausner im derStandard-Bericht. 

Leitfaden plus Onlinetool entwickelt

Vera steht kurz für "Verantwortung" und "Algorithmen". Lukas Daniel Klausner und Angelika Adensamer haben Folgendes entwickelt:

  • einen Leitfaden für Manager*innen und Betriebsrät*innen zur Unterstützung bei der Einbettung der Technologien in die Organisationsstrukturen
  • ein Onlinetool, das Kompetenzkonflikte und Verantwortungslücken beim KI-Einsatz aufzeigen soll

Mehr Infos

Sie wollen mehr wissen? Fragen Sie nach!
Dipl.-Ing. Klausner Lukas Daniel, BSc

Dipl.-Ing. Lukas Daniel Klausner, BSc

Researcher Institut für IT Sicherheitsforschung Department Informatik und Security