sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Klima und Wandel Fundstücke
Ole hat für die Bertelsmann Stiftung die internationale Blogger-Plattform Futurechallenges.org aufgebaut und beschäftigt sich dort nun mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er ist Co-Founder der Menschenrechtsplattform www.futurechallenges.org und befasst sich mit der Fragen der Globalisierung, der Zukunft der Arbeit und mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er schreibt auch auf www.netzpiloten.de, ist u.a. als selbständiger Berater zu digitalen Trends tätig und ist im Beirat des Colab_Digital aktiv. Alle hier geposteten Texte geben ausschließlich seine private Meinung wieder.
In der jüngsten Diskussion über die Risiken der Entwicklung von superintelligenten Maschinen (also von Maschinen, deren allgemeine Intelligenz größer ist als die des Menschen), haben sich zwei Sichtweisen herausgebildet: Die eine Seite argumentiert, dass eine Maschine, wenn sie jemals fortgeschrittene Intelligenz erreichen sollte, automatisch menschliche Werte anerkennt und verinnerlicht - und darum keine Bedrohung für uns darstellen würde. Die Gegenseite argumentiert, dass künstliche Intelligenz Menschen auslöschen wollen würde, entweder aus Rache oder aus dem inneren Wunsch, zu überleben.
Laut Nick Bostrom, Autor von „Superintelligence: Paths, Dangers, Strategies“, sind beide Ansichten falsch: „Wir haben wenig Grund, an eine Superintelligenz zu glauben, die notwendigerweise menschliche Werte teilt, und wenig Grund zu glauben, dass sie großen Wert auf ihr eigenes Überleben legen würde.“ Beide Argumentationsweisen machten den Fehler, künstliche Intelligenz zu vermenschlichen. Menschliche Emotionen würden auf ein Objekt projiziert, das seinem Wesen nach fremd und andersartig sei.
Die ersten Superintelligenzen, die die Zukunft der Erde prägen könnten, werden womöglich keine Ziele verfolgen, die uns Menschen dienen. Sie werden aber sehr wahrscheinlich versuchen, die Ressourcen zu sammeln, die sie zur Erreichung ihrer eigenen Ziele benötigen. Wenn es dazu kommen sollte, dass Menschen von den superintelligenten Maschinen selbst als Ressource aufgefasst werden, oder zumindest als Wesen, die für ihr Überleben und Gedeihen auf viele weitere lokale Ressourcen angewiesen sind, könnte es im Ergebnis dazu kommen, dass die Menschheit existenziell bedroht wird.
Quelle: Nick Bostrom Bild: Photo illustratio... EN slate.com
Bleib immer informiert! Hier gibt's den Kanal Fundstücke als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.