sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Senior Editor @Wired_Germany. Co-Founder @BuzzingCities Lab. Berichtet auch für andere Medien wie Spiegel Online über internationale Politik, Tech, Cyber & Crime, OC, oft aus Lateinamerika/Mexiko.
Was passiert, wenn Algorithmen vorhersagen, wer zukünftig zum Verbrecher wird? ProPublica vermisst in einer komplexen Recherche, wie sich Software irren kann, die die Wahrscheinlichkeit berechnet, ob straffällig gewordene Personen zu Wiederholungstätern werden: „Two years later, we know the computer algorithm got it exactly backward. Borden has not been charged with any new crimes. Prater is serving an eight-year prison term for subsequently breaking into a warehouse and stealing thousands of dollars’ worth of electronics.“ Kein Einzelfall: ProPublica hat die Risikowerte von mehr als 7000 Personen ausgewertet, die 2013 und 2014 in Broward County, Florida, festgenommen wurden und recherchiert, wie viele in den beiden Folgejahren tatsächlich wieder auffällig wurden.
Das Ergebnis ist erschreckend: „The score proved remarkably unreliable in forecasting violent crime: Only 20 percent of the people predicted to commit violent crimes actually went on to do so.“ Dabei stufte die Software schwarze Angeklagte fälschlicherweise doppelt so häufig als zukünftige Verbrecher ein. Umgekehrt wurde weißen straffällig gewordenen Menschen häufiger ein niedriges Rückfallrisiko zugeschrieben. Die Software kategorisiert nicht grob nach Hautfarbe — doch Aspekte wie soziale Netzwerke, Arbeitslosigkeit oder Wohngebiete können zu Verzerrungen führen. Menschen, die etwa in ärmlichen Gebieten mit hoher Kriminalität leben, werden so automatisch schlechter bewertet, so dass die Software gesellschaftliche Verhältnisse zementiert. Eine gesellschaftliche Debatte und die Diskussion von Algorithmen ist deswegen so wichtig, weil die Rückfallwahrscheinlichkeit von Angeklagten in den USA bereits jetzt in juristische Entscheidungen einfließt und etwa über Gefängnisstrafen entscheiden kann. Ein zentrales Problem ist die mangelnde Transparenz von Analysesoftware: Hersteller geben oft keinen Einblick auf Basis welcher Aspekte die Risikobewertung erfolgt.
Quelle: Julia Angwin, Jeff Larson, Surya Mattu, Lauren Kirchner Bild: Josh Richie/ProPu... EN propublica.org
Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.