sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Klima und Wandel Fundstücke
Ole hat für die Bertelsmann Stiftung die internationale Blogger-Plattform Futurechallenges.org aufgebaut und beschäftigt sich dort nun mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er ist Co-Founder der Menschenrechtsplattform www.futurechallenges.org und befasst sich mit der Fragen der Globalisierung, der Zukunft der Arbeit und mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er schreibt auch auf www.netzpiloten.de, ist u.a. als selbständiger Berater zu digitalen Trends tätig und ist im Beirat des Colab_Digital aktiv. Alle hier geposteten Texte geben ausschließlich seine private Meinung wieder.
Michael Chorost befasst sich in seinem philosophischen und sehr anspruchsvollen Text mit der Frage, inwieweit Künstliche Intelligenz (KI) eine Gefährdung der Menschheit darstellt. Allgenwärtig sind die Szenarien, in denen KI sich selbst weiterentwickelt und letztendlich zu dem Schluss kommt, dass die Welt ohne den Menschen besser auskommt.
Chorost geht in seiner Betrachtung Stück für Stück die Befürchtungen durch und geht dabei sehr differenziert und unter Bezugnahme anderer Autoren und Philosophen auf einzelne Argumente sein. Dabei ist von Anfang an klar, dass er selbst diese Gefahr nicht sieht. Sein Hauptargument: Solange KI nicht fühlen kann, kann es auch nichts “wollen”. Um eine Entscheidung für oder gegen etwas (Menschen) treffen zu können, muss sie grundsätzlich die Fähigkeit besitzen, ein Verlangen zu entwickeln. So weit sind wir jedoch noch lange nicht. Selbst die jüngste Entwicklung, die mit Google’s AlphaGo für Furore sorgte, beinhaltet nicht, dass der Computer eine tatsächliche Entscheidung treffen kann, Go zu spielen oder besser nicht spielen zu wollen.
Und selbst wenn eine solche Entwicklung möglich sein wird: Letztendlich führt das “Fühlen” auch immer zu einem ethischen Bewusstsein, zu der Fähigkeit, zwischen richtig und falsch entscheiden zu können. Dafür aber muss auch eine KI die gleiche Evolution durchlaufen wie dies der Mensch auch getan hat. Letztendlich würde eine KI unter gleichen Voraussetzungen verantwortungsvoller, ausgeglichener und zurückhaltender agieren als Menschen. Wäre das so schlimm? Es ist sehr lohnenswert, sich auf die Gedankenspiele von Chorost einzulassen.
Quelle: Michael Chorost Bild: Photo illustratio... EN slate.com
Bleib immer informiert! Hier gibt's den Kanal Fundstücke als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.