sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Klima und Wandel Fundstücke
Ole hat für die Bertelsmann Stiftung die internationale Blogger-Plattform Futurechallenges.org aufgebaut und beschäftigt sich dort nun mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er ist Co-Founder der Menschenrechtsplattform www.futurechallenges.org und befasst sich mit der Fragen der Globalisierung, der Zukunft der Arbeit und mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er schreibt auch auf www.netzpiloten.de, ist u.a. als selbständiger Berater zu digitalen Trends tätig und ist im Beirat des Colab_Digital aktiv. Alle hier geposteten Texte geben ausschließlich seine private Meinung wieder.
Die Personalabteilungen großer Firmen nutzen weltweit immer stärker künstliche Intelligenz (KI), um in teilautomatisierten Verfahren die geeigneten Bewerberinnen herauszufiltern und damit die Kosten des Einstellungsprozesses zu minimieren. Nachdem in den letzten beiden Jahren verstärkt Hinweise aufkamen, dass diese Sortiermechanismen zu Verzerrungen unterschiedlichen Ausmaßes führen könnten, versucht Politik nun, dieses Problem anzugehen.
"New York City policymakers are debating Int. 1894–2020, a proposed bill that would regulate the sale of automated employment decision-making tools. This bill calls for regular “bias audits” of automated hiring and employment tools."
Hierbei ergibt sich aber eine neue Herausforderung. War es noch einfach, die KI-induzierten Verzerrungen auf einer aggregierten Ebene zu erkennen (bspw. Bevorzugung von weißen Menschen), gestaltet sich die Umsetzung eines Auditierungsverfahrens schwieriger als erwartet. Die Autorin weist sogar darauf hin, dass die Gefahr bestehen könnte, dass Algorithmen, die im Sinne eines Audits als “technisch einwandfrei” zertifiziert werden könnten, den Bias unbewusst verstärken könnten. Das Problem liegt darin, das Maß der Norm und das Maß der Abweichung von der Norm zu bestimmen. Im Versuch, diese Granularität jenseits von Geschlechtergrenzen oder ethnischen Grenzen zu erreichen, werden inzwischen Erinnerungen wach an die Eugenik und Schädelkunde, da es nicht ausreicht, nur nach Ethnien zu unterscheiden; es müssten eigentlich unterschiedliche Mimiken der Ethnien identifiziert werden. Wäre ein Auditing-Verfahren somit das Einfallstor zur KI-basierten Eugenik?
Die Autorin schlägt mehrere Maßnahmen vor, um die Gefahr des Bias in Auditing-Verfahren auf anderen Wegen anzugehen. Erstens sollen insbesondere öffentliche Organisationen wie zum Beispiel Stadtverwaltungen transparent geführte Verzeichnisse über ihren Einsatz von KI-basierten Entscheidungsmechanismen anlegen. Zweitens muss diese Transparenz auch für die Auditing-Verfahren selbst gelten, um gute Beispiele für Standardprozesse der Risikomessung zu kommunizieren und einen internationalen Standard zu erreichen.
Drittens muss eine Debatte über den Nutzen von Auditing auf der einen und Effizienz des Auditing auf der anderen Seite geführt werden. Den Nutzen könnte ein holistisches Auditing nach Meinung der Autorin vor allem als Bestandteil des öffentlichen Beschaffungswesen zeigen, da an dieser Stelle eine Rechenschaftspflicht der Effizienz der Beschaffung gegenüber den Bürgerinnen besteht und damit politischer Druck aufgebaut werden kann.
Leider geht die Autorin am Ende aber nicht darauf ein, was “Verzerrung” im Auswahlprozess der Bewerberinnen ganz genau bedeutet. Bezieht sich Bias auf das Verhältnis der Bewerberzusammensetzung zur Grundgesamtheit der Bevölkerung, auf die Entscheidungskriterien der Auswahl oder die am Ende ausgewählte Menge der Bewerberinnen im Vergleich zur Grundgesamtheit? Diese Frage scheint bis heute in der KI-Ethikdebatte keine Rolle zu spielen.
Quelle: Mona Sloane EN onezero.medium.com
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Als Unternehmer im AI-Bereich ist es mir unverständlich, wie es zu einem fundamentalem Missverständnis dabei kommen konnte, wo „intelligente“ Programme sinnvoll einsetzbar sind.
Nämlich: AI ist dort von Nutzen, wo die zu automatisierenden Prozesse zwischen Maschinen (m2m) oder Person und Maschine (p2m) erfolgen. Dort, wo Mensch zu Mensch (p2p) interagieren, und HR ist da DAS Paradebeispiel, sind Automatisierungsgedanken an Idiotie grenzend.
Der zweite Irrsinn, in dem seit Jahren immense Geldsummen in fehlgeleitete Automatisierung versenkt werden: Service-Chatbots. Just my 2 kilobits...