Aktuelles

    Die Anwendung künstlicher Intelligenz menschenrechtlich fundieren

    Gesicht einer Frau vor blauen Hintergrund, überlagert durch verschiedene halbtransparente Grafiken.
    © iStock/metamorworks

    · Meldung

    Der Einsatz Künstlicher Intelligenz bietet enorme Chancen – der Blick auf die menschenrechtlichen Risiken zeigt jedoch, dass vor allem die Anwendung algorithmischer Entscheidungssysteme dringend einer Regulierung bedarf. Auf EU-Ebene verhandelt die EU-Kommission derzeit eine Verordnung, die eben diese Regulierung herstellen soll. Damit geht die Erwartung einher, dass die EU als einer der drei großen Handelsblöcke Standards setzen wird, die sich auch auf die Rechtsetzung in anderen Ländern auswirken wird.

    Mit der heute veröffentlichten Information „Algorithmische Entscheidungssysteme – Menschenrechtliche Vorgaben und Entwicklungen auf internationaler Ebene“ erläutert das Institut, wie verschiedene UN-Menschenrechtsgremien menschenrechtliche Fragen bei der Anwendung von Künstlicher Intelligenz beurteilen und welche Verpflichtungen sich für Staaten daraus ergeben.

    Menschenrechtlichen Risiken vorbeugen

    So erfordert ein menschenrechtsbasierter Umgang mit Künstlicher Intelligenz, dass menschenrechtliche Auswirkungen geprüft, Diskriminierungsrisiken ausgeschlossen und Partizipation von Betroffenen in der Entwicklung und Evaluation von algorithmischen Entscheidungssystemen sichergestellt wird. Nutzer_innen sollten zudem über die Existenz, den Zweck, die Beschaffenheit und die Wirkung des algorithmischen Entscheidungssystems informiert werden und Zugang zu ausreichendem, wirksamem, raschem und angemessenem Rechtsschutz erhalten. Schließlich braucht es auch Aufsichtsbehörden, die die Einhaltung dieser Standards kontrollieren und, wenn notwendig, sanktionieren können.

    Der Blick auf die bisherige Praxis zeigt, dass aus menschenrechtlicher Perspektive dringender Handlungsbedarf besteht. Die menschenrechtlichen Auswirkungen von algorithmischen Entscheidungssystemen werden vor ihrem Einsatz – wenn überhaupt – nur unzureichend analysiert. So nutzte beispielsweise Amazon in Bewerbungsverfahren ein algorithmisches Entscheidungssystem, das mit den Daten von in der Vergangenheit erfolgreichen Bewerber_innen trainiert worden war. Da die Mehrheit dieser Bewerber_innen Männer war, schlussfolgerte das System, dass Männer die besseren Kandidaten seien und diskriminierte so in der Vorauswahl Frauen. Dieses Beispiel zeigt, dass diskriminierende und andere menschenrechtlich negative Auswirkungen meist erst im laufenden Einsatz deutlich werden und oft auch nur dann, wenn Betroffene sich an Gerichte wenden oder Journalist_innen, Forscher_innen oder zivilgesellschaftliche Organisationen die Auswirkungen der algorithmischen Entscheidungssysteme näher untersuchen. Staaten sind daher verpflichtet, regulierend einzugreifen, um sicherzustellen, dass sie bei der Anwendung von algorithmischen Entscheidungssystemen Menschenrechte achten, schützen, fördern und gewährleisten.

    Mehr zu diesem Thema

    nach oben