sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Technologie und Gesellschaft Fundstücke
In Hohenlimburg geboren und in Berlin lebend. Recherchen in knapp vierzig Ländern für Feature-Redaktionen des Deutschlandfunks, verschiedener ARD-Sender sowie u.a. auch DIE ZEIT und FAS, einige Auszeichnungen, Bücher zu den Themen MENSCHENWERTBERECHNUNG, DEMENZ und HEIMAT, zuletzt vorwiegend Theaterstücke mit Uraufführungen an den Staatstheatern Karlsruhe, Nürnberg und Weimar.
Es ist ausgesprochen lesenswert, wie dicht Adrian Lobe den aktuellen Stand der Diskussion um den Einfluss von Google, Facebook und Co auf unser Wissen und Denken zusammenfasst.
Ein Ausgangspunkt ist dabei die Feststellung von Franklin Foer, Redakteur bei The Atlantic, dass die Informationstechnologie zu einer Homogenisierung und Automatisierung des sozialen, politischen und intellektuellen Lebens führt.
Algorithmen sind gerade deshalb programmiert worden, um den Menschen aus dem Erkenntnisprozess zu entfernen.
Mittlerweile sei die Macht von Google so weit verinnerlicht, dass die Nutzer der Suchmaschine Wissen und Google-Halbwissen gleichsetzen. Dabei entscheiden allein algorithmische Entscheidungssysteme welche Informationen wir sehen. Besonders brisant dabei: Programmcodes übernehmen durch ihre Auswahl und Wertung politische Steuerungen im Sinne einer, so der Soziologe A. Aneesh, „Algokratie“.
Mit jeder Modifikation des Newsfeed-Algorithmus wird Herrschaft ausgeübt.
Dazu kommt, dass die beispiellose Akkumulation von Daten als Wissenskanon, etwa durch die monopolisierte und gleichwohl urheberrechtlich bedenkliche Digitalisierung von Büchern, nicht mehr als kultureller Wert oder Bildungsgut im Dienste der Menschheit verstanden werden kann, sondern als ein Pool von Trainingsdaten für Maschinen.
"Wir scannen nicht all die Bücher, damit sie von Menschen gelesen werden. Wir scannen die Bücher, damit sie von künstlicher Intelligenz gelesen werden."
So der US-Wissenschaftshistoriker George Dyson. Nicht menschliche, sondern künstliche Intelligenz soll intelligenter werden.
Und wo bei der Suche am Ende nur noch eine Antwort, so die Vision des langjährigen Google-Chefs Eric Schmidt, Gültigkeit besitzen soll, droht schließlich eindeutig Autoritarismus.
Hinter dem kognitiven Kapitalismus, der Gedanken und Gefühle zu Geld macht, scheint die Dystopie einer Gedankenpolizei auf.
Quelle: Süddeutsche.de GmbH, Munich, Germany sueddeutsche.de
Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Sehr guter Text. Hat sich alleine schon für die Buchhinweise und den Begriff "Algokratie" gelohnt. Einziger Kritikpunkt: Die Ausführungen zu Google und die Klagen, dass wir den Fakten dort blind vertrauen. Das klingt schon sehr nach simplistischer Nostalige. Früher hat man Fakten im Lexikon oder in wissenschaftlichen Arbeiten auch blind vertraut, obwohl erwiesenermaßen vieles davon nicht korrekt war und ist. Der Unterschied ist natürlich der, der Verantwortung. "Früher" stand hinter einem Faktum immer ein/e Verantwortungsträger/in. Plattformen weißen die Verantwortung für die empfohlenen Informationen so weit wie möglich von sich.