00:09 13 November 2018
SNA Radio
    Die Welt der Zukunft (Symbolbild)

    Gentechnische Übermenschen und die Besiedlung neuer Planeten: Hawkings letztes Buch

    CC0 / pixabay/ hucky
    Wissen
    Zum Kurzlink
    Valentin Raskatov
    134619

    Wird der Klimawandel oder ein Asteroid dem menschlichen Leben ein Ende setzen? Oder besiedeln wir neue Planeten? Wird der Mensch durch einen gentechnisch bearbeiteten Übermenschen abgelöst? Und ist Künstliche Intelligenz ein Segen oder eine Gefahr? Auf diese Fragen geht Stephen Hawking in seinem letzten, posthum erschienenen Buch ein.

    In seinem letzten Buch „Kurze Antworten auf große Fragen“, das ein halbes Jahr nach seinem Tod auch in deutscher Sprache erschienen ist, hat Stephen Hawking aus Sicht der Kosmologie die größten Fragen der Menschheit beantwortet: Die Frage, ob es einen Gott gibt. Die Frage, wie das Leben angefangen hat. Die Frage, ob es weiteres intelligentes Leben im Weltall gibt. Die Frage, was sich über die Zukunft sagen lässt. Und die Frage, was sich in Schwarzen Löchern verbringt. Auch die Frage, die sich für Science-Fiction-Fans oft gar nicht erst stellt, nämlich ob Zeitreisen möglich sind, ging der Forscher und Bestseller-Autor an.

    Diese Themen sind wichtig für das Weltverständnis. Aber sie betreffen den Menschen nicht unmittelbar in seiner Existenz. Um solche praktischeren Fragen, um gegenwärtige Entwicklungen und deren Tragweite ging es in Hawkings letztem Buch jedoch ebenfalls. Sputnik hat die drei brennendsten Gegenwartsfragen herausgearbeitet.

    Der gentechnische Übermensch wird kommen

    Für Stephen Hawking ist es keine Frage, ob der Mensch irgendwann in großem Maßstab Hand an sich selbst anlegen wird und sich mit der Gentechnik verbessern und zu einer Art „Übermensch“ designen wird. Irgendwann wird jemand dem Drang nicht widerstehen können und solche Experimente durchführen, ob diese nun weltweit verboten sein sollten oder nicht. Sobald aber die ersten Exemplare dieser Menschen existieren, so Hawkings Logik, werden diese den „ursprünglichen“ Menschen überlegen sein. Der Konkurrenzdruck wird letztlich dazu führen, dass immer mehr solcher Menschen entstehen.

    „Natürlich wird die Entwicklung von verbesserten Menschen gewaltige soziale und politische Probleme im Hinblick auf nicht verbesserte Menschen mit sich bringen“, schreibt Hawking. „Ich sage nicht, Genmanipulation am Menschen sei eine gute Sache, ich sage lediglich, es wird wahrscheinlich im nächsten Jahrtausend dazu kommen, ob wir es wollen oder nicht.“

    Der Mensch muss neue Planeten besiedeln

    Aber für die Fortexistenz des Menschen soll natürlich nicht allein eine Verbesserung des Erbguts von Bedeutung sein. Denn gegen eine Katastrophe aus dem All ist das Leben nicht gewappnet, wie der Asteroid-Einschlag vor 66 Millionen Jahren zeigte, der für das Aussterben der Dinosaurier verantwortlich gemacht wird.

    Hinzu kommt eine langsam wachsende Gefahr in Form des Klimawandels. Hier ist nicht nur der Anstieg von Treibhausgasen in der Luft von Bedeutung. Es gibt Verstärkungseffekte, die diesen Wandel enorm beschleunigen könnten. Einer davon: Schmelzen die Eiskappen in Arktis und Antarktis ab, wird weniger Sonnenlicht von diesen zurück in den Weltraum geworfen. Die Folge: Die Temperatur auf der Erde steigt noch schneller.

    Aus diesen Gründen findet Hawking nicht nur den Kampf gegen den Klimawandel notwendig, sondern auch die aktive Suche nach bewohnbaren Planeten und die Entwicklung von Technologien, die Weltallreisen enorm beschleunigen würden.

    Mit Künstlicher Intelligenz ist nicht zu spielen

    Erstmal zur Beruhigung: Künstliche Intelligenz ist derzeit nicht wesentlich intelligenter als ein Fadenwurm. Doch in dem Bereich tut sich auch Vieles. Wenn das Moorsche Gesetz stimmt, dass sich alle 18 Monate die Komplexität von Schaltkreisen verdoppelt und die Leistung von Rechner damit erhöht, dann wird der Mensch auf lange Sicht von seinem Werkzeug überholt werden. Und genau auf das Wort Werkzeug ist laut Hawking die Betonung zu setzen.

    Denn künstliche Intelligenz kann Produktion und Arbeit des Menschen revolutionieren. Aber der Mensch muss bei der Entwicklung seine Energie nicht nur in immer schnellere und intelligentere Systeme stecken, sondern auch mögliche Folgen der Entwicklung in seine Planung einbeziehen.

    Es geht hier nicht nur um „banalen“ Missbrauch künstlicher Intelligenz wie im Fall von autonomen Waffensystemen. Es geht auch darum, dass künstliche Intelligenz in zunächst ganz harmlosen Bereichen nicht beginnt, eigenmächtig Entscheidungen zu treffen, eine Art eigenen Willen zu entwickeln, der mit dem menschlichen nicht vereinbar ist. Denn in dem Fall wäre der Mensch nichts Anderes als ein Störfaktor für die Entfaltung seiner Schöpfung. Und das könnte böse ausgehen.

    Grundton: Optimismus

    Obgleich Stephen Hawking in seinem Buch die Menschheit von kosmischen und technischen Gefahren sowie von der üblichen menschlichen Dummheit bedroht sieht, gibt er sich im Grund optimistisch:

    „Wir stehen an der Schwelle zu einer schönen neuen Welt“, schreibt er. „Es ist ein aufregender und gleichzeitig gefährlicher Ort. Und Sie sind die Pioniere dieser Welt.“

    Das soll aber eben nicht heißen, dass die Pioniere gedankenlos von Neuem zu Neuem eilen sollen. Denn: „Nachdem wir das Feuer erfunden hatten, haben wir uns ein paarmal dumm angestellt und dann den Feuerlöscher erfunden. Bei mächtigeren Technologien wie Nuklearwaffen, synthetischer Biologie und hoch entwickelter künstlicher Intelligenz sollten wir uns vorher Gedanken machen und uns große Mühe geben, alles gleich beim ersten Mal richtig zu machen. Denn womöglich haben wir nur diese eine Chance.“

    GemeinschaftsstandardsDiskussion
    via Facebook kommentierenvia Sputnik kommentieren
    Tags:
    Fortschritt, Asteroid, Weltuntergang, Zeitreise, künstliche Intelligenz, Gott, Raumschiff, Gentechnik, Schwarze Löcher, Aliens, Weltall, Stephen Hawking