warum die zukunft
uns nicht braucht

Bill Joy, deutsche Version seines Essays aus Wired (April 2000),
abgedruckt in der FAZ am 6. Juni 2000

Die mächtigsten Technologien des 21. Jahrhunderts - Robotik, Gentechnik und Nanotechnologie - machen den Menschen zur gefährdeten Art

Seit ich mich mit der Entwicklung neuer Technologien befasse, haben deren ethische Dimensionen mich interessiert, aber erst im Herbst 1998 wurde mir bewusst, welche Gefahren uns im einundzwanzigsten Jahrhundert erwarten. Mein Unbehagen nahm seinen Anfang, als ich Ray Kurzweil begegnete, dem verdientermaßen berühmten Erfinder der ersten Lesemaschine für Blinde und vieler anderer erstaunlicher Dinge. Wir hatten beide einen Vortrag auf der George Gilder’s Telecosm Conference gehalten, und ich traf ihn zufällig in der Hotelbar, nachdem wir unsere Sitzungen hinter uns gebracht hatten. Ich saß mit John Searle zusammen, einem Philosophen aus Berkeley, der sich mit Fragen des Bewusstseins beschäftigt. Ray setzte sich zu uns, und es begann ein Gespräch, dessen Gegenstand mir bis heute nachgeht.

Ich hatte Rays Vortrag verpasst und ebenso die anschließende Diskussion, an der er und John teilgenommen hatten; die beiden griffen den Faden dort wieder auf, wo sie ihn hatten fallen lassen, und Ray erklärte, die technische Entwicklung werde sich weiter beschleunigen, wir würden selbst zu Robotern oder mit ihnen verschmelzen, und John entgegnete, das werde nicht geschehen, weil Roboter kein Bewusstsein entwickeln könnten.

Solche Dinge hatte ich schon früher gehört und dabei stets gedacht, empfindungsfähige Roboter gehörten in das Reich der Science Fiction. Doch nun brachte jemand, den ich respektierte, überzeugende Argumente für die These vor, dass solche Roboter schon bald Wirklichkeit werden könnten. Ich war vor allem deshalb verblüfft, weil Ray bereits bewiesen hatte, dass er die Zukunft vorauszusehen und zu gestalten vermochte. Ich wusste bereits, dass neue Technologien wie Gentechnik und Nanotechnologie uns die Möglichkeit geben, die Welt grundlegend zu verändern, aber ein realistisches Szenario für intelligente Roboter in allernächster Zukunft überraschte mich.

Man kann solcher Durchbrüche leicht überdrüssig werden. Fast täglich hören wir in den Nachrichten von irgendeinem technologischen oder wissenschaftlichen Fortschritt. Aber dies war keine gewöhnliche Voraussage. In der Hotelbar gab Ray mir einen Vorabdruck mit einem Auszug aus seinem damals im Erscheinen begriffenen Buch ,The Age of Spiritual Machines" (auf Deutsch erschienen unter dem Titel „Homo S@piens". Leben im 21. Jahrhundert), in dem er eine Utopie vorstellt und die Voraussage macht, dass die Menschen durch die Verschmelzung mit der Robotertechnik nahezu Unsterblichkeit erlangen werden.

Die Lektüre verstärkte mein Unbehagen noch; ich war mir sicher, dass er die Gefahren und die Wahrscheinlichkeit eines schlechten Ausgangs dieser Entwicklung noch untertrieben darstellte. Am stärksten beunruhigte mich eine Passage, in der ein dystopisches Szenario geschildert wurde: ,Zunächst einmal wollen wir annehmen, dass es den Computerwissenschaftlern gelingt, intelligente Maschinen zu entwickeln, die alles besser können als der Mensch. In diesem Fall wird alle Arbeit wahrscheinlich von riesigen, hochorganisierten Maschinensystemen erledigt, so dass man auf menschliche Arbeit verzichten kann. Dann gibt es zwei Möglichkeiten: Man könnte den Maschinen erlauben, ihre Entscheidungen selbst und ohne menschliche Kontrolle zu treffen, oder der Mensch könnte die Kontrolle über die Maschinen behalten. Falls man den Maschinen erlaubt, ihre Entscheidungen selbst zu treffen, lassen sich die Ergebnisse nicht abschätzen, denn wir können unmöglich voraussehen, wie solche Maschinen sich verhalten werden..."

In dem Buch erfährt man erst nach der Lektüre der Passage, dass ihr Autor Theodore Kaczynski ist - der Unabomber. Ich setzte mich wahrhaftig nicht für Kaczynski ein. In einer 17 Jahre dauernden Terrorkampagne haben seine Bomben drei Menschen getötet und zahlreiche andere verwundet. Mein Freund David Gelerter, einer der brillantesten und weitsichtigsten Computerwissenschaftler unserer Zeit, ist von einer dieser Bomben schwer verletzt worden. Wie viele meiner Kollegen hatte auch ich das Gefühl, ich könne durchaus das nächste Ziel des Unabombers sein.

Kaczynskis Taten waren mörderisch und kriminell. Er ist eindeutig ein Maschinenstürmer, aber damit hat man seine Argumentation noch nicht entkräftet. So schwer es mir auch fiel, ich musste zugeben, dass der in dieser Passage geäußerte Gedanke nicht ganz abwegig war. Ich fühlte mich gedrängt, ihm zu widersprechen. Kaczynskis dystopische Vision beschreibt unbeabsichtigte Folgen, ein bekanntes Problem in der Entwicklung und Anwendung von Technologien, das eng mit Murphys Gesetz zusammenhängt: „Was schief gehen kann, das geht auch irgendwann einmal schief." (Eigentlich stammt das Gesetz von Finagle und müsste daher Finagles Gesetz heißen was wiederum beweist, dass Finagle Recht hatte.) Der übermäßige Einsatz von Antibiotika hat zu dem wohl größten Problem dieser Art geführt: zur Entstehung antibiotikaresistenter und daher weitaus gefährlicherer Bakterien. Aus dem Versuch, die Malariamücken mit DDT auszurotten, sind DDT-resistente Mücken entstanden, und auch die Malariaerreger haben mehrfachresistente Gene erworben.

Die Ursache solcher Überraschungen scheint klar: Die betreffenden Systeme sind komplex; sie umfassen Wechselwirkungen und Rückkopplungsprozesse zwischen zahlreichen Teilen. Jede Veränderung solch eines Systems löst eine Kette von Reaktionen aus, die sich nur schwer voraussehen lassen; das gilt insbesondere für Systeme, in denen menschliches Handeln eine Rolle spielt.

Ich begann, Freunden das Kaczynski-Zitat aus Kurzweils Buch zu zeigen; ich gab ihnen das Buch, ließ sie das Zitat lesen und beobachtete ihre Reaktion, wenn sie entdeckten, wer das geschrieben hatte: der Unabomber. Etwa um dieselbe Zeit stieß ich auf Hans Moravecs Buch „Robot: Evolution from Mere Machine to Transcendent Mind" (auf Deutsch erschienen unter dem Titel „Computer ergreifen die Macht"). Moravec gehört zu den führenden Forschern auf dem Gebiet der Robotik und war Mitbegründer des weltweit größten Robotik-Forschungsprogramms an der Carnegie Mellon University. Sein Buch gab mir weiteres Material an die Hand, das ich an meinen Freunden ausprobieren konnte, Material, das Kaczynskis Argumentation überraschenderweise stützte.

Ich beschloss, mit meinem Freund Danny Hillis zu reden. Danny hat sich einen Namen als Mitbegründer der Thinking Machines Corporation gemacht, die einen sehr leistungsfähigen Parallel-Supercomputer gebaut hat. Obwohl ich gegenwärtig die Position des Chief Scientist bei Sun Microsystems bekleide, bin ich doch eher Rechnerarchitekt als Wissenschaftler, und ich schätze Danny wegen seiner Kenntnisse auf dem Gebiet der Informatik und der Physik mehr als jeden anderen. Außerdem ist er ein angesehener Zukunftsforscher, der in langen Zeiträumen denkt - vor vier Jahren gründete er die Long Now Foundation, die eine Uhr mit einer geplanten Lebensdauer von 10 000 Jahren baut, um die Aufmerksamkeit auf die beschämende Kurzsichtigkeit der Gesellschaft zu lenken.

Ich flog nach Los Angeles, um mit Danny und seiner Frau Pati essen zu gehen. Ich spulte mein inzwischen vertrautes Routineprogramm ab, trug die Ideen und Passagen vor, die mir solches Unbehagen bereiteten. Dannys Antwort - vor allem im Blick auf Kurzweils Szenario einer Verschmelzung des Menschen mit den Robotern - kam rasch und setzte mich in Erstaunen. Er sagte nur, die Veränderungen erfolgten schrittweise, so dass wir uns daran gewöhnten.

Aber ich war nicht vollkommen überrascht. In Kurzweils Buch hatte ich ein Zitat von Danny gelesen, in dem er sagte: „Ich liebe meinen Körper nicht mehr oder weniger als andere, aber wenn ich mit einem Körper aus Silicium 200 Jahre alt werden kann, werde ich ihn nehmen." Offenbar hatte er seinen Frieden mit dieser Entwicklung und ihren Risiken gemacht, während mir das schwer fiel. Als ich so über Kurzweil, Kaczynski und Moravec redete und nachdachte, kam mir ein Roman in den Sinn, den ich vor fast zwanzig Jahren gelesen hatte: ,The White Plage" von Frank Herbert (auf Deutsch erschienen unter dem Titel „Die weiße Pest"); darin wird ein Molekularbiologe durch die sinnlose Ermordung seiner Familie in den Wahnsinn getrieben. Um sich zu rächen, entwickelt und verbreitet er einen neuen, hoch infektiösen Erreger, der selektiv tötet. (Ein Glück, dass Kaczynski Mathematiker und kein Molekularbiologe war.) Ich musste auch an die Borg aus Star Trek denken, diese halbbiologischen Roboterwesen mit stark destruktiven Neigungen. Katastrophen nach Art der Borg sind eine Spezialität der Science Fiction. Warum hatte ich mich nicht schon früher mit solchen Roboter-Dystopien befasst? Und warum kümmerten andere Menschen sich so wenig um diese albtraumhaften Szenarien?

Ein Teil der Antwort liegt sicher in unserer Einstellung gegenüber dem Neuen, in unserer Neigung, Neues sogleich als vertraut zu empfinden und es fraglos anzunehmen. Da wir ständig neue wissenschaftliche Durchbrüche erleben, müssen wir uns erst noch klar machen, dass die stärksten Technologien des einundzwanzigsten Jahrhunderts - Robotik, Gentechnik und Nanotechnologie - ganz andere Gefahren heraufbeschwören als die bisherigen Technologien. Vor allem Roboter, technisch erzeugte Lebewesen, und Nanoboter besitzen eine gefährliche Eigenschaft: Sie können sich selbständig vermehren. Eine Bombe explodiert nur einmal, ’aus einem einzigen Roboter können viele werden, die rasch außer Kontrolle geraten.

In den letzten fünfundzwanzig Jahren hat man viel an der Entwicklung von Computernetzen gearbeitet, in denen das Senden und Empfangen von Nachrichten die Möglichkeit unkontrollierter Vermehrung eröffnet. In einem Computer oder Computernetz kann solche Vermehrung lästig sein; schlimmstenfalls legt sie den Computer oder das Netzwerk lahm. In den neuen Technologien dagegen gehen von der unkontrollierten Vermehrung sehr viel größere Gefahren aus; dort drohen erhebliche Schäden an der materiellen Welt.

Jede dieser Technologien eröffnet auch ungeahnte Möglichkeiten: Die Aussicht auf annähernde Unsterblichkeit, die Kurzweil in seinen Roboterträumen voraussieht, treibt uns voran; die Gentechnik wird schon bald zur Behandlung und vielleicht auch Heilung der meisten Krankheiten eingesetzt werden; Nanotechnologie und Nanomedizin werden diese Möglichkeiten noch erweitern. Zusammen könnten sie unsere Lebenserwartung beträchtlich verlängern und die Lebensqualität verbessern. Die vielen kleinen, individuell erfahrbaren Vorteile dieser Technologien führen jedoch zu einer gewaltigen Ansammlung von Macht und zugleich zu großen Gefahren.

Was war im zwanzigsten Jahrhundert anders? Natürlich bargen die Technologien, die den nuklearen, chemischen und biologischen Massenvernichtungswaffen zugrunde lagen, gewaltige Potentiale, und die Waffen stellen eine ebenso große Gefahr dar. Aber zum Bau von Atomwaffen benötigte man zumindest in der Anfangszeit seltene - tatsächlich sogar nahezu unerreichbare - Rohstoffe und ein durch Geheimhaltung geschütztes Wissen; auch der Bau biologischer und chemischer Waffen verlangte einigen Aufwand. Die Technologien des einundzwanzigsten Jahrhunderts - Genetik, Nanotechnologie und Robotik - bergen dagegen Gefahren, die sich in ganz anderen Dimensionen bewegen. Und am gefährlichsten ist wohl die Tatsache, dass selbst Einzelne und kleine Gruppen diese Technologien missbrauchen können. Dazu benötigen sie keine Großanlagen und keine seltenen Rohstoffe, sondern lediglich Wissen.

An die Stelle der Massenvernichtungswaffen tritt damit die Gefahr einer wissensbasierten Massenvernichtung, die durch das hohe Vermehrungspotential noch deutlich verstärkt wird. Ich denke, es ist nicht übertrieben, wenn ich sage, wir stehen an der Schwelle zu einer weiteren Perfektion des Bösen in seinen extremsten Ausprägungen; und diesmal werden die so geschaffenen schrecklichen Möglichkeiten nicht nur Nationalstaaten zur Verfügung stehen, sondern auch einzelnen Extremisten.

Als ich begann, mich mit Computern zu befassen, deutete nichts darauf hin, dass ich einmal mit solchen Problemen konfrontiert würde. Mein Leben lang habe ich das Bedürfnis gehabt, Fragen zu stellen und Antworten zu suchen. Schon mit drei Jahren konnte ich lesen, und mein Vater stellte mich dem Schulleiter der Grundschule vor; auf seinem Schoß sitzend, las ich ihm eine Geschichte vor. Ich kam früh in die Schule, übersprang später eine Klasse und flüchtete mich in Bücher - ich hatte einen unglaublichen Drang zu lernen. Ich stellte zahllose Fragen und trieb die Erwachsenen damit manchmal zur Verzweiflung.

Als Teenager interessierte ich mich sehr für Naturwissenschaft und Technik. Ich wäre gerne Amateurfunker gewesen, hatte aber nicht das nötige Geld für die Ausrüstung. Der Amateurfunk war das Internet der damaligen Zeit; es bestand die Gefahr, dass man süchtig danach wurde und sich in seinem Zimmer verkroch. Ganz abgesehen von den Kosten, war meine Mutter entschieden dagegen; Amateurfunk kam nicht in Frage, ich war schon ungesellig genug.

Donnerstag abends gingen meine Eltern zum Bowling; wir Kinder blieben allein zu Haus. Und donnerstags wurde Gene Roddenberrys ursprüngliche Star-Trek-Serie gesendet, die großen Eindruck auf mich machte. Von dort übernahm ich den Gedanken, dass die Menschen eine Zukunft im Weltraum haben, ganz wie im Western, mit Heldengestalten und Abenteuern. Roddenberrys Vision der kommenden Jahrhunderte war stark durch moralische Werte geprägt, die ihren Niederschlag in Regeln wie der Hauptdirektive fanden; danach sollte vermieden werden, in die Entwicklung technisch weniger weit fortgeschrittener Zivilisationen einzugreifen. Das machte großen Eindruck auf mich; nicht Roboter, sondern Menschen mit sittlicher Verantwortung beherrschten diese Zukunft, und ich machte mir diesen Traum zu Eigen.

In der Highschool war ich besonders gut in Mathematik, und als ich mein Ingenieurstudium an der University of Michigan begann, belegte ich gleich Mathematikvorlesungen für höhere Semester. Die Lösung mathematischer Probleme war eine aufregende Herausforderung, doch als ich die Computer entdeckte, fand ich sie noch interessanter: Maschinen, denen man ein Programm eingab, das Probleme zu lösen versuchte und die Lösung gleich noch überprüfte. Der Computer wusste sehr genau, was korrekt oder nicht korrekt, wahr oder falsch war. Waren meine Ideen korrekt? Der Computer konnte es mir sagen. Das war sehr verführerisch.

Ich hatte das Glück, einen Job als Programmierer früher Supercomputer zu finden, und ich entdeckte die erstaunliche Fähigkeit großer Rechenanlagen, fortgeschrittene Entwürfe numerisch zu simulieren. Als ich Mitte der siebziger Jahre in Berkeley mein Promotionsstudium aufnahm, begann ich, bis spät in die Nacht und manchmal ganze Nächte hindurch aufzubleiben und neue Welten im Computer zu erfinden. Probleme zu lösen. Den Code niederzuschreiben, der unbedingt geschrieben werden wollte.

In seinem biografischen Roman ,The Agony and the Ecstasy" (auf Deutsch erschienen unter dem Titel „Michelangelo") beschreibt Irving Stone sehr lebendig, wie Michelangelo die Figuren aus dem Stein befreite, den ,Bann des Marmors" löste und den Bildern in seinem Kopf Gestalt verlieh. In meinen ekstatischsten Augenblicken entstand die Software im Computer auf ganz ähnliche Weise. Wenn ich sie mir vorstellen konnte, hatte ich das Gefühl, sie existierte bereits in der Maschine und müsse nur noch freigesetzt werden. Die ganze Nacht aufzubleiben schien da nur ein kleiner Preis, um sie zu befreien und der Idee konkrete Gestalt zu verleihen.

Anfang der achtziger Jahre ertrank ich fast in Arbeit. Unix, das ich mit entwickelt hatte, war sehr erfolgreich, mein kleines Projekt hatte bald genug Geld und Personal beisammen, aber nicht das Geld war in Berkeley das Problem, sondern der Platz es gab einfach keine Räume für die Leute, die das Projekt benötigte. Als die anderen Gründer von Sun Microsystems an mich herantraten, ergriff ich daher die Gelegenheit und schloss mich ihnen an. Bei Sun blieb es dann in der Frühzeit der Workstations und Personalcomputer bei den langen Arbeitstagen, und ich hatte das Glück, an der Entwicklung fortgeschrittener Mikroprozessor- und Internettechnologien wie Java und Jini mitwirken zu können.

Aus alledem dürfte hinreichend hervorgehen, dass ich kein Maschinenstürmer bin. Ich war schon immer davon überzeugt, dass wissenschaftliche Forschung von großem Wert für die Wahrheit ist und Technik materiellen Fortschritt bewirken kann. Die industrielle Revolution hat die Lebensqualität der Menschen in den letzten Jahrhunderten beträchtlich verbessert, und was mein eigenes Berufsleben angeht, hatte ich stets vor, nach sinnvollen Lösungen für reale Probleme zu suchen - ein Problem nach dem anderen. Ich bin nicht enttäuscht worden. Meine Arbeit hat größere Wirkung erzielt, als ich jemals gehofft hätte, und findet so weite Anwendung, wie ich es unmöglich hätte erwarten können. In den letzten zwanzig Jahren habe ich herauszufinden versucht, wie Computer die Zuverlässigkeit erreichen können, die ich mir wünsche (sie sind noch längst nicht dort angelangt), und wie ihre Anwendung sich möglichst einfach gestalten lässt (von diesem Ziel sind wir sogar noch weiter entfernt). Trotz mancher Fortschritte erscheinen die verbleibenden Probleme fast entmutigend schwierig.

Ich war mir zwar immer schon der kaum lösbaren ethischen Probleme bewusst, die im Zusammenhang mit den Folgen der Technik auf Gebieten wie der militärischen Forschung auftreten, doch hatte ich nicht erwartet, auch auf meinem Gebiet mit solchen Problemen konfrontiert zu werden, oder zumindest nicht so bald.

Vielleicht ist es auf dem Höhepunkt des Wandels besonders schwer, die Folgen zu überblicken. Offenbar erkennen Wissenschaftler und Techniker die Folgen ihrer Entdeckungen und Innovationen häufig nicht, solange das Fieber der Neuerungen sie gefangen hält. Wir haben uns lange von dem unbändigen Wunsch nach Erkenntnis treiben lassen, der das Wesen der Wissenschaft ausmacht, und dabei übersehen, dass der ständige Drang zu neuen, leistungsfähigeren Technologien ein Eigenleben entwickeln kann.

Mir ist schon lange klar, dass die großen Fortschritte im Bereich der Informationstechnologie nicht von Computerwissenschaftlern, Rechnerarchitekten oder Elektroingenieuren ausgehen, sondern von Physikern. Die Physiker Stephen Wolfram und Brosl Hasslacher führten mich Anfang der achtziger Jahre in die Chaostheorie und die Theorie nichtlinearer Systeme ein. In Gesprächen mit Danny Hillis, dem Biologen Stuart Kauffman, dem Physiker und Nobelpreisträger Murray Gell-Mann und anderen lernte ich in den neunziger Jahren kom plexe Systeme kennen. In jüngster Zeit schließlich gaben mir Hasslacher sowie der Elektroingenieur und Apparatephysiker Mark Reed Einblick in die unglaublichen Möglichkeiten der Molekularelektronik.

In meiner eigenen Arbeit als Mitentwickler dreier Mikroprozessorarchitekturen - SPARC, picoJava und MAJC - und bei diversen Implementierungen dieser Systeme habe ich Moores Gesetz aus erster Hand und sehr genau kennen gelernt. Moores Gesetz hat die exponentielle Verbesserung der Halbleitertechnologie korrekt vorausgesagt. Bis letztes Jahr glaubte ich, die von Moores Gesetz vorausgesagte Verbesserungsrate könne nur bis etwa 2010 anhalten, weil dann bestimmte physikalische Grenzen erreicht wären. Mir war nicht klar, dass zur rechten Zeit eine neue Technologie bereitstünde, die für einen weiteren gleichmäßigen Fortschritt sorgen kann.

Dank rascher, radikaler Fortschritte im Bereich der Molekularelektronik - in der einzelne Atome und Moleküle an die Stelle der mit Hilfe lithografischer Techniken erzeugten Transistoren treten - und dank der zugehörigen Nanotechnologien sollten wir in der Lage sein, die von Moores Gesetz vorausgesagte Entwicklungsgeschwindigkeit auch für weitere dreißig Jahre zu erreichen oder zu übertreffen. 2030 werden wir wahrscheinlich in großen Mengen Maschinen produzieren können, die eine Million mal leistungsfähiger sind als die heutigen Personalcomputer - und das wird ausreichen, um Kurzweils und Moravecs Träume zu verwirklichen.

Die Verbindung dieser Computerleistung mit den manipulativen Fortschritten der Physik und dem vertieften genetischen Wissen wird gewaltige Veränderungen ermöglichen. Wir werden die Welt vollkommen neu gestalten können, im Guten wie im Schlechten. Replikations- und Schöpfungsprozesse, die bisher der Natur vorbehalten waren, geraten in den Einflussbereich des Menschen. Bei der Entwicklung von Computerprogrammen und Mikroprozessoren hatte ich nie das Gefühl, eine intelligente Maschine zu entwerfen. Soft- und Hardware sind so zerbrechlich und den Maschinen fehlt so offensichtlich jede „Denkfähigkeit", dass dies alles mir noch weit in der Zukunft zu liegen schien.

Doch da wir nun schon in dreißig Jahren mit einer dem Menschen vergleichbaren Computerleistung rechnen können, drängt sich mir ein anderer Gedanke auf: dass ich mich möglicherweise an der Entwicklung von Instrumenten beteilige, aus denen einmal die Technologie hervorgehen könnte, die unsere Spezies verdrängen wird. Wie fühle ich mich bei diesem Gedanken? Sehr unbehaglich. Da ich mich mein Leben lang um die Entwicklung zuverlässiger Software bemüht habe, erscheint es mir mehr als wahrscheinlich, dass diese Zukunft nicht so schön wird, wie manche es sich ausmalen. Meine persönliche Erfahrung sagt mir, dass wir dazu neigen, unsere Fähigkeiten auf diesem Gebiet zu überschätzen.

Sollten wir uns angesichts der unglaublichen Leistungsfähigkeit der neuen Technologien nicht lieber fragen, wie wir am besten mit ihnen koexistieren können? Und wenn die technologische Entwicklung wahrscheinlich oder auch nur möglicherweise zur Auslöschung unserer Art führt, sollten wir dann nicht besser vorsichtig sein?

Die Robotik träumt zunächst einmal davon, intelligente Maschinen könnten uns die Arbeit abnehmen, uns ein Leben in Muße ermöglichen und wieder in den Garten Eden zurückversetzen. George Dyson warnt jedoch in seinem Buch „Darwin Among the Machines", in dem er die Geschichte solcher Ideen nachzeichnet: „Im Spiel des Lebens und der Evolution sitzen drei Spieler am Tisch: der Mensch, die Natur und die Maschinen. Ich bin entschieden auf der Seite der Natur. Aber ich fürchte, die Natur steht auf der Seite der Maschinen." Dieser Meinung ist auch Moravec, wenn er sagt, wir könnten die Begegnung mit der überlegenen Spezies Roboter möglicherweise nicht überleben.

Wie schnell ließe sich solch ein intelligenter Roboter realisieren? Angesichts der zu erwartenden Fortschritte in der Rechnerleistung wäre dieser Schritt bis 2030 vorstellbar. Und wenn erst einmal ein intelligenter Roboter existiert, ist es nur noch ein kleiner Schritt hin zu einer Spezies intelligenter Roboter, das heißt zu einem Roboter, der Kopien seiner selbst herzustellen vermag.

Die Robotik träumt des Weiteren davon, den Menschen schrittweise durch Robotertechnologie zu ersetzen, so dass wir gleichsam Unsterblichkeit erlangen, indem wir unser Bewusstsein abspeichern; diesen Prozess meinte Danny Hillis, als er davon sprach, wir würden uns schrittweise daran gewöhnen; und diesen Prozess beschreibt auch Ray Kurzweil mit so gesetzten Worten in seinem Buch „The Age of the Spiritual Machines". (Anfänge sehen wir bereits in der Implantation von Computerchips in den menschlichen Körper.)

Doch wenn wir uns in unserer eigenen Technologie abspeichern, welche Chance haben wir dann, hinterher noch wir selbst oder auch nur menschliche Wesen zu sein? Mir scheint es sehr viel wahrscheinlicher, dass ein Roboter nichts mit einem Menschen in unserem Verständnis zu tun hat, dass die Roboter keineswegs unsere Kinder sein werden und dass auf diesem Wege das Menschsein verloren gehen wird.

Die Gentechnik verspricht, die Landwirtschaft durch Erhöhung der Ernteerträge und Verringerung des Pestizideinsatzes zu revolutionieren; Zehntausende neuer Bakterienarten, Pflanzen, Viren und Tiere zu erzeugen; die geschlechtliche Fortpflanzung durch Klonen zu ersetzen oder dadurch zu ergänzen; Heilmethoden für zahlreiche Krankheiten zu entwickeln, unser Leben zu verlängern und unsere Lebensqualität zu verbessern und vieles andere mehr. Es besteht kein Zweifel, dass diese tiefgreifenden Veränderungen in der Biologie bevorstehen und dass unser Bild vom Leben dadurch grundlegend in Frage gestellt wird.

Techniken wie das Klonen von Menschen haben unsere Aufmerksamkeit für die tiefgründigen ethischen und moralischen Fragen geschärft, vor die uns diese Techniken stellen. Wenn wir uns zum Beispiel mit Hilfe der Gentechnik in mehrere, nicht als gleich geltende Arten aufspalteten, wäre die Idee der Gleichheit gefährdet, auf der das ganze demokratische System aufbaut.

Angesichts der gewaltigen Möglichkeiten der Gentechnik kann es nicht verwundern, dass ihre Anwendung große Sicherheitsprobleme mit sich bringt. Mein Freund Armory Lovins hat kürzlich zusammen mit Hunter Lovins in einem Leitartikel ein ökologisches Bild dieser Gefahren gezeichnet. Dort heißt es unter anderem: „Die neue Botanik richtet die Entwicklung der Pflanzen nicht an ihrem evolutionären, sondern an ihrem ökonomischen Erfolg aus." Armory hat sich in seinem langen Berufsleben vor allem mit dem effizienten Einsatz von Energie und Rohstoffen befasst, indem er die vom Menschen geschaffenen Systeme einer ganzheitlichen Betrachtung unterzog; diese ganzheitliche Betrachtung findet häufig einfache Lösungen für ansonsten sehr schwierig erscheinende Probleme und lässt sich auch auf dem genannten Gebiet sinnvoll einsetzen.

Nachdem ich Lovins Leitartikel gelesen hatte, sah ich in der New York Times vom 19. November 1999 einen Artikel von Greg Easterbrook über gentechnisch veränderte Lebensmittel; die Schlagzeile lautete: „Nahrung für die Zukunft: Eines Tages wird Reis auch Vitamin A enthalten. Sofern nicht die Maschinenstürmer siegen."

Sind Armory und Hunter Lovins Maschinenstürmer? Gewiss nicht. Ich denke, wir alle hätten nichts gegen Reis mit eingebautem Vitamin A, wenn er mit der nötigen Sorgfalt entwickelt würde und insbesondere mit Blick auf die mögliche Gefahr, dass Gene die Artenschranke überspringen könnten. Das Bewusstsein für die möglichen Gefahren der Gentechnik beginnt zu wachsen, wie sich in dem Leitartikel der Lovins zeigt. Eine breitere Öffentlichkeit weiß um die gentechnisch veränderten Pflanzen und zeigt sich besorgt; offenbar ist man nicht damit einverstanden, dass solche gentechnisch veränderten Lebensmittel nicht als solche ausgewiesen werden müssen.

Aber die Gentechnik ist schon weit vorangeschritten. Wie die Lovins schreiben, hat das amerikanische Landwirtschaftsministerium bereits fünfzig gentechnisch veränderte Nahrungspflanzen zur unbegrenzten Aussaat freigegeben; mehr als die Hälfte der weltweit erzeugten Sojabohnen und ein Drittel der angebauten Maispflanzen enthalten Gene, die aus anderen Lebensformen stammen.

Die Gentechnik wirft viele wichtige Fragen auf; meine Sorge gilt eher einem besonderen Aspekt, der Gefahr nämlich, dass sie die Möglichkeit bieten könnte, zufällig, aus militärischen Gründen oder bewusst im Sinne eines Terroranschlags eine Weiße Pest auszulösen.

Einen Ausblick auf die zahlreichen wunderbaren Möglichkeiten der Nanotechnologie gab erstmals 1959 der Physiker und Nobelpreisträger Richard Feynman in einem Vortrag, der später unter dem Titel ,There’s Plenty of Room at the Bottom" veröffentlicht wurde. Besonders beeindruckt hat mich Mitte der achtziger Jahre Eric Drexlers Buch „Engines of Creation", in dem er sehr schön beschreibt, wie man durch die Manipulation der Materie auf atomarer Ebene eine utopische Zukunft schaffen kann, in der Überfluss herrscht, weil man nahezu alles billig zu produzieren vermag und in der die Nonotechnologie im Verein mit der Künstlichen Intelligenz fast alle Krankheiten und körperlichen Probleme zu lösen imstande ist.

Ein späteres Buch: „Unbounding the Future" (auf Deutsch erschienen unter dem Titel „Experiment Zukunft: die nanotechnologische Revolution"), das Drexler zusammen mit Chris Peterson und Gayle Pergamit verfasste, geht näher auf einige Veränderungen ein, wie sie durch „Assembler", die auf molekularer Ebene arbeiten, herbeigeführt werden könnten. Solche „Monteure" könnten Solarenergie zu unglaublich niedrigen Kosten gewinnen, Krebs und gewöhnliche Erkältungen durch eine Stärkung des menschlichen Immunsystems heilen, die Umwelt vollständig von Schadstoffen befreien, billigste Supercomputer im Taschenformat und überhaupt so ziemlich alles zu den denkbar niedrigsten Kosten herstellen, Raumflüge so selbstverständlich machen, wie Interkontinentalflüge es heute schon sind, und schließlich auch ausgestorbene Arten wieder zum Leben erwecken.

Ich erinnere mich, dass ich mich nach der Lektüre von „Engines of Creation" sehr wohl fühlte. Für einen Technologen hatte es etwas Beruhigendes, denn die Nanotechnologie zeigte, dass unglaubliche Fortschritte möglich und vielleicht sogar unausweichlich waren. Wenn die Nanotechnologie unsere Zukunft war, bestand gar kein Grund für mich, so viele Probleme in der Gegenwart mit solcher Hast anzugehen. Drexlers utopische Zukunft würde in angemessener Zeit Wirklichkeit werden; ich konnte mein Leben geradeso gut hier und jetzt genießen. Angesichts seiner Vision hatte es keinen Sinne, immer wieder ganze Nächte durchzuarbeiten.

Mit Drexlers Vision hatte ich auch einigen Spaß. Gelegentlich beschrieb ich anderen, die noch nichts davon gehört hatten, die Wunderwerke der Nanotechnologie. Und nachdem ich ihnen die Ohren voll geredet hatte, gab ich ihnen als Hausaufgabe auf, mit Hilfe der Nanotechnologie einen Vampir und zugleich auch ein geeignetes Gegenmittel zu schaffen.

Dass diese Wunderwerke auch deutliche Gefahren in sich bargen, war mir sehr wohl bewusst. 1989 sagte ich auf einer Tagung zur Nanotechnologie: „Wir können nicht einfach unserer Wissenschaft nachgehen und die ethischen Fragen ausblenden." Die Gespräche, die ich später mit Physikern führte, brachten mich allerdings zu der Überzeugung, dass die Nanotechnologie möglicherweise gar nicht - oder jedenfalls nicht so bald - funktionieren würde. Kurz darauf zog ich nach Colorado, und der Schwerpunkt meiner Arbeit verlagerte sich auf Software fürs Internet, vor allem auf Ideen, aus denen später Java und Jini hervorgingen.

Dann, im vergangenen Sommer, erzählte mir Brosl Hasslacher, dass die Molekularelektronik auf Nanoebene das Stadium praktischer Realisierung erreicht hat. Das war neu für mich, und ich denke, für viele andere auch. Diese Nachricht veränderte meine Einstellung gegenüber der Nanotechnologie grundlegend. Als ich Drexlers Engines of Creation nach mehr als zehn Jahren nochmals las, erschrak ich, wie wenig ich doch von dem langen Abschnitt über „Gefahren und Hoffnungen" behalten hatte; unter anderem hatte er dort beschrieben, dass die Nanotechnologie auch zur Herstellung von „Zerstörungsmaschinen" genutzt werden kann. Wenn ich diese warnende Abschnitte heute lese, bin ich erstaunt, wie naiv Drexlers Vorschläge für Sicherheitsvorkehrungen wirken; auch sind die Gefahren nach meiner heutigen Einschätzung sehr viel größer, als er damals offenbar glaubte. (Nachdem Drexler zahlreiche technische und politische Probleme im Zusammenhang mit der Nanotechnologie vorausgesehen und beschrieben hatte, gründete er in den späten achtziger Jahren das Foresight Institute, das dazu beitragen soll, „die Gesellschaft auf fortgeschrittene Technologien vorzubereiten", und insbesondere auf die Nanotechnolgie.)

Der Durchbruch zur Konstruktion der „Assembler" dürfte mit einiger Wahrscheinlichkeit in den nächsten 20 Jahren erfolgen. Die Molekularelektronik - das neue Teilgebiet der Nanotechnologie, in dem einzelne Moleküle als Schaltelemente fungieren - wird sich wohl sehr schnell entwickeln und noch in diesem Jahrzehnt ausgesprochen lukrativ werden, so dass immer größere Investitionen in diesen Bereich fließen dürften.

Wie die Kerntechnik, so lässt sich leider auch die Nanotechnologie leichter für zerstörerische als für konstruktive Zwecke nutzen. Die Nanotechnologie bietet leicht erkennbare militärische und terroristischen Anwendungsmöglichkeiten, und man braucht nicht einmal ein Selbstmörder zu sein, um destruktive nanotechnische Instrumente massiv einzusetzen, denn diese Instrumente lassen sich so konstruieren, dass sie ihre Zerstörungskraft selektiv entfalten und zum Beispiel nur bestimmte Regionen oder bestimmte Menschen mit spezifischen genetischen Merkmalen treffen.

Der Preis des faustischen Handels, der uns die Nanotechnologie beschert, ist ein schreckliches Risiko, die Gefahr nämlich, dass wir die Biosphäre zerstören, von der alles eben abhängt.

(...)Die Technologien, die in den atomaren, biologischen und chemischen Massenvernichtungswaffen des 20. Jahrhunderts Anwendung finden, waren und sind weitgehend militärischen Charakters und wurden in staatlichen Forschungseinrichtungen entwickelt. In deutlichem Gegensatz dazu handelt es sich bei Gentechnik, Nanotechnologie und Robotik um kommerziell genutzte Technologien, die fast ausschließlich von privaten Unternehmen entwickelt werden. In unserer Zeit eines triumphierenden Kommerzialismus liefert die Technologie unter Zuarbeit der Wissenschaft - eine Reihe nahezu magischer Erfindungen, die Gewinne unerhörten Ausmaßes versprechen. Aggressiv folgen wir den Versprechen dieser neuen Technologien innerhalb eines entfesselten, globalisierten Kapitalismus mit seinen vielfältigen finanziellen Anreizen und seinem Wettbewerbsdruck.

Wir hätten aus dem Bau der ersten Atombombe und dem atomaren Wettrüsten, das darauf folgte, etwas lernen sollen. Wir haben damals große Fehler gemacht, und die Parallelen zur gegenwärtigen Situation sind beängstigend. Wie groß sind die Gefahren, die uns heute drohen, nicht nur von Atomwaffen, sondern von all diesen Technologien? Wie groß ist das Risiko, dass wir uns selbst ausrotten?

Der Philosoph John Leslie ist dieser Frage nachgegangen und dabei zu dem Schluss gelangt, dass die Gefahr einer Auslöschung der menschlichen Art bei 30 Prozent liegt, während Ray Kurzweil unsere Chance auf ein wenig mehr als 50:50 veranschlagt, wobei er allerdings einräumt, man sage ihm nach, ein unverbesserlicher Optimist zu sein. Diese Schätzungen sind nicht ermutigend, dabei berücksichtigen sie nicht einmal die Wahrscheinlichkeit vieler schrecklicher Szenarien, die nur in die Nähe einer Auslöschung kommen.

Angesichts solcher Aussichten raten manche uns ernsthaft, die Erde möglichst bald zu verlassen. Wir sollen mit von-Neumann-Sonden die Milchstraße kolonisieren und von einem Sonnensystem zum nächsten hüpfen. Dieser Schritt wird in etwa fünf Milliarden Jahren unvermeidlich sein (oder auch früher, wenn unserer Milchstraße in etwa 3 Milliarden Jahren mit der Andromeda-Galaxis kollidiert), doch wenn wir Kurzweil und Moravec beim Wort nehmen, könnte er schon in der Mitte dieses Jahrhunderts erforderlich werden.

Welche moralischen Implikationen wären mit solch einem Schritt verbunden? Falls wir die Erde so bald schon verlassen müssen, um den Fortbestand der menschlichen Art zu sichern, wer übernimmt dann die Verantwortung für das Schicksal der Zurückbleibenden (und das werden die meisten sein)? Und selbst wenn wir zu den Sternen flüchten, ist es nicht wahrscheinlich, dass wir die Probleme mit uns nehmen oder dass sie uns folgen? Unser Schicksal auf der Erde und unser Schicksal in der Galaxis scheinen unlösbar miteinander verbunden.

Nach einer anderen Idee soll eine Reihe von Abwehrschilden gegen die Gefahren der einzelnen Technologien errichtet werden. Die von der Reagan-Administration vorgeschlagene Strategic Defence Initiative war ein Versuch, solch einen Schild gegen einen möglichen atomaren Angriff der Sowjetunion zu schaffen. Arthur C. Clarke, der an vielen vertraulichen Diskussionen zum Thema beteiligt war, sagte dazu: „Obwohl es möglich schien, unter gewaltigen Kosten ein lokales Verteidigungssystem zu schaffen, das ’nur’ einen kleinen Prozentsatz der ballistischen Raketen durchließ, war der vielgerühmte nationale Schutzschirm Unsinn. Luis Alvarez, der wohl größte Experimentalphysiker unseres Jahrhunderts, sagte mir einmal, die Anhänger solcher Vorstellungen, seien ’sehr kluge Köpfe ohne jeden gesunden Menschenverstand’."

Clarke meinte weiter: „Wenn ich in meine oft getrübte Kristallkugel schaue, nehme ich an, dass ein vollständiges Verteidigungssystem vielleicht in hundert Jahren möglich sein wird. Aber die dafür erforderliche Technologie würde als Nebenprodukt so schreckliche Waffen hervorbringen, dass niemand mehr einen Gedanken an etwas so Primitive wie ballistische Raketen verschwenden würde."

In Engines of Creation macht Drexler den Vorschlag, einen aktiven nanotechnologischen Schild - eine Art Immunsystem für die Biosphäre - zu schaffen, um uns vor gefährlichen Replikatoren jeglicher Art zu schützen, die aus Labors entkommen oder in bösartiger Absicht freigesetzt werden könnten. Aber der Schild, den er vorschlägt, wäre gleichfalls mit gewaltigen Gefahren verbunden, weil niemand ausschließen könnte, dass er Autoimmunprobleme auslöste und die Biosphäre seinerseits angriffe.

Auf ähnliche Schwierigkeiten stieße die Konstruktion von Schutzschilden gegen Robotik oder Gentechnik. Diese Technologien sind zu mächtig, als dass wir uns in der zur Verfügung stehenden Zeit vor ihnen schützen könnten. Und selbst wenn wir solche Schutzschilde entwickeln könnten, wären die Nebenwirkungen ihrer Entwicklung mindestens ebenso gefährlich wie die Technologien, vor denen sie uns schützen sollen.

Diese Möglichkeiten sind also sämtlich entweder nicht wünschenswert oder nicht realisierbar oder beides zugleich. Die einzig realistische Alternative, die ich sehe, lautet Verzicht: Wir müssen auf die Entwicklung allzu gefährlicher Technologien verzichten und unserer Suche nach bestimmten Formen des Wissens Grenzen setzen.

Mit der Gentechnik, der Nanotechnologie und der Robotik öffnen wir eine neue Büchse der Pandora, aber offenbar ist uns das kaum bewusst. Ideen lassen sich nicht wieder zurück in eine Büchse stopfen; anders als Uran oder Plutonium müssen sie nicht abgebaut und aufgearbeitet werden, und sie lassen sich problemlos kopieren. Wenn sie heraus sind, sind sie heraus. Churchill meinte einmal in seiner unnachahmlichen Art, die Amerikaner täten immer das Richtige, nachdem sie alle anderen Alternativen sorgfältig geprüft hätten. In diesem Fall jedoch müssen wir mehr Voraussicht walten lassen; wenn wir das Richtige erst am Schluss tun, könnte es schon zu spät sein, überhaupt noch etwas zu tun.

Ich denke tatsächlich, die Situation war 1945 einfacher als heute. Bei den Nukleartechnologien konnte man kommerzielle und militärische Nutzung hinreichend klar voneinander trennen; die Überwachung war nicht schwer, weil Atomtests sehr auffällig sind und Radioaktivität leicht gemessen werden kann. Die militärische Forschung lag in den Händen staatlicher Forschungseinrichtungen wie Los Alamos, so dass die Ergebnisse sehr lange geheim gehalten werden konnten.

Bei Gentechnik, Nanotechnologie und Robotik dagegen lassen kommerzielle und militärische Anwendung sich nur schwer trennen; angesichts ihres ökonomischen Potenzials kann man sich kaum vorstellen, dass nur staatliche Forschungseinrichtungen sich mit ihnen befassten. Angesichts ihrer kommerziellen Bedeutung erforderte ein Verzicht Überwachungssysteme, wie man sie für biologische Waffen geschaffen hat, nur dass sie in diesem Fall ganz andere Größenordnungen annehmen müssten. Dadurch entstünden unvermeidlich Spannungen zwischen der Notwendigkeit einer unserem Schutz dienenden Überwachung und der Privatsphäre sowie dem Anspruch auf private Verfügungsgewalt über Informationen. Gegen diesen Verlust an Freiheit wird es ohne Zweifel starke Widerstände geben.

Meine Begegnung mit Ray Kurzweil und John Searle liegt jetzt mehr als ein Jahr zurück. Wenn ich mich umschaue, sehe ich einige Gründe zur Hoffnung: in mahnenden Stimmen, die zu Vorsicht und Verzicht raten; in Menschen, die wie ich besorgt sind. Auch fühle ich mich persönlich verantwortlich - nicht für die Arbeit, die ich schon getan habe, sondern für die Arbeit, die ich möglicherweise noch leisten werde an der Schnittstelle mehrerer Wissenschaften.

Doch viele Menschen, die um die Gefahren wissen, bleiben schweigsam. Spricht man sie darauf an, heißt es, das sei doch alles nicht neu - als wäre das Wissen um die möglichen Entwicklungen bereits Reaktion genug. Sie sagen, die Universitäten seien doch voll von Biochemikern, die sich den ganzen Tag mit diesen Dingen beschäftigen. Sie sagen, darüber sei doch schon genug geschrieben worden, von Fachleuten, die Bescheid wüssten. Sie klagen, meine Sorgen und Argumente seien ein alter Hut.

Ich weiß nicht, wo diese Menschen ihre Angst verstecken. Als Architekt komplexer Systeme betrete ich diese Arena ohne Vorurteile. Sollte ich deswegen weniger besorgt sein? Ich weiß, dass aus berufenem Mund schon viel darüber geredet worden ist. Aber hat es die Menschen erreicht?

Meine Hoffnung richtet sich auf eine breite Diskussion der von mir hier angesprochenen Fragen. Eine Diskussion mit Menschen aus den verschiedensten Lebensbereichen und in einem Klima, das weder durch Technikangst noch durch blindes Vertrauen in die Technik geprägt ist.

[zurück zum Anfang]

km 21.0 2002 - diese Seite ist Bestandteil von www.km21.org