sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Redakteur bei PULS, dem jungen Programm des Bayerischen Rundfunks | u.a. für den Podcast "Einfach machen" und die Reportagereihe "Die Frage" | davor: Reporter für Fernsehen, Hörfunk und Print u.a. für quer | unterwegs in München, im Netz und in Lateinamerika
Im April wurde Dr. David Dao aus einem Flugzeug gezerrt. Der Flug war überbucht, zu wenig Platz, einer musste gehen. Das Ergebnis: viel Geschrei, eine blutige Nase, jede Menge verwackelte Handyvideos und ein Aufschrei. Die Bilder haben wir alle gesehen. Darauf folgten Anschuldigungen und Entschuldigungen. Aber: Warum hat es eigentlich ausgerechnet Dr. Dao erwischt? Warum wurde er ausgewählt, als sich kein Freiwilliger mehr finden wollte, der gegen einen Gutschein auf einen späteren Flug umstieg? "99% Invisible" meint: Dahinter könnte ein Algorithmus gesteckt haben. Und der kam womöglich zu dem Ergebnis, dass Dr. David Dao wohl der Kunde mit dem geringsten Wert für United Airlines gewesen sein könnte.
Im konkreten Einzelfall ist das natürlich Spekulation, an vielen anderen Stellen treffen Programme aber bereits Entscheidungen (oder helfen zumindest dabei) - und zwar ganz oft dort, wo es für Menschen besonders schwierig ist, eine eindeutige Wahl zu treffen. Das wird schon heute zum Problem, sagt Cathy O’Neil - zum Beispiel bei der Auswahl von Bewerbern oder wenn die Länge einer Gefängnisstrafe festgelegt werden soll. O’Neil hat vor kurzem ein Buch über den Einfluss von Algorithmen veröffentlich, das den schönen Titel "Weapons of Math Destruction" trägt. Untertitel: "How Big Data Increases Inequality and Threatens Democracy".
Im Gespräch mit dem Podcast "99% Invisible" klärt Cathy O’Neil, wo Algorithmen heute schon zum Problem werden und wo man schrauben könnte, um das zu ändern. Das Schöne: Der Podcast ist weder technikfeindlich noch fatalistisch, sondern ausgewogen und sehr konkret. Unter dem Link gibt es auch das Skript zur Sendung zum Lesen.
Quelle: Delaney Hall, 99% Invisible EN 99percentinvisible.org
Bleib immer informiert! Hier gibt's den Kanal Medien und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Hab die Folge gestern gehört. Ausgezeichneter Tipp. Angenehm unhysterisch und leicht verständlich, trotz des komplexen Themas.
Interessant. Allerdings müsste man nicht nur untersuchen, inwiefern Algorithmen Entscheidungen treffen, die aus ethischen Erwägungen unerwünscht sind, sondern man müsste das vergleichen mit den Entscheidungen, die Menschen treffen, und die aus ethischen Erwägungen unerwünscht sind, aufgrund von Vorurteilen oder psychologischen, aber sachfremden Mechanismen heraus. Klassiker sind die Bevorzugung von Männern und/oder Weißen gegenüber Frauen und/oder Schwarzen. Iris Bohnet hat in ihrem neuen Buch "What Works" das Thema angesprochen und kommt zu dem Schluss, dass algorithmenbasierte Entscheidungen sehr viel näher an den erwünschten Kriterien liegen (z.B. rein nach Qualifikation zu entscheiden) als menschliche. Manchmal werden aber Diskriminierungen schon in die Algorthmen hinein programmiert.