sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Jahrgang 1986, hat Film und Filmwissenschaft am Bard College in New York studiert und schreibt als freie Journalistin unter anderem für die FAZ, FAS, ZEIT Online, Krautreporter und Monopol. 2014 gründete sie das BLOCK Magazin (www.block-magazin.de), das sie seitdem herausgibt. 2017 erschien ihr erster Roman "Blaupause" beim Hanser Verlag. Sie lebt und arbeitet in Berlin.
Anstatt uns Sorgen darum zu machen, dass Maschinen irgendwann intelligenter sein könnten als Menschen, sollten wir uns mit den Problemen beschäftigen, die künstliche Intelligenz heute schon hat, sagt Kate Crawford.
Es ist wie mit allen technologischen Neuerungen: Das Problem ist nicht, dass sie eine neue Gesellschaftsordnung einläuten, sondern dass sie bestehende gesellschaftliche Probleme reproduzieren oder verschärfen – Sexismus und Rassismus, zum Beispiel.
Die Algorithmen - die „Intelligenz" der digitalen Welt - entscheiden aufgrund der Daten, mit denen sie gefüttert werden. Wenn diese Daten durch die schiere Verteilung eine Norm suggerieren (eine weiße, heterosexuelle, männliche Norm), kann das schwerwiegende Konsequenzen haben:
"A very serious example was revealed in an investigation published last month by ProPublica. It found that widely used software that assessed the risk of recidivism in criminals was twice as likely to mistakenly flag black defendants as being at a higher risk of committing future crimes. It was also twice as likely to incorrectly flag white defendants as low risk."
Crawford ist vorsichtig, wenn es darum geht, die Gründe für diese Missverhältnisse zu analysieren. Mangelnde Transparenz ist Usus in der kommerziellen Tech-Branche. Ich finde es nicht schwierig, mir vorzustellen, dass das Problem bei der (mangelnden) Vielfalt in den Firmen liegen könnte, die diese Programme entwerfen. Den Schritt geht Crawford nicht, aber immerhin weist sie darauf hin, wie wichtig es ist, dass die Mechanismen beim Entwurf der Algorithmen offengelegt werden.
Quelle: Kate Crawford EN nytimes.com
Bleib immer informiert! Hier gibt's den Kanal Feminismen als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Total wichtiges Thema, no? Danke für die Empfehlung, Theresia.