Out of Control?

Ein Blick in die Zukunft. Auslöschung oder Unsterblichkeit? Cyborg oder Maschinensklave?

Während mau* in Büchern, Filmen, Comics und Computerspielen schon seit Jahrzehnten von menschenähnlichen Haushaltshilfen träumt und vor übermenschlichen Killerrobotern und diktatorischen Computersystemen zittert, scheint die Realität allmählich die Fiktion einzuholen. In vielen Bereichen könnte es nur noch eine Frage gar nicht mehr so langer Zeit sein, bis uns menschgeschaffene Systeme ein- und überholen. Was passiert, wenn Wissenschaften und Verfahren wie Kybernetik, Robotik, Gentechnik und Nanotechnologie zusammenfinden und tatsächlich künstliche Intelligenz entsteht, die der menschlichen ebenbürtig werden kann?


Ein kurzer Ausflug in die Robotik soll zunächst Einblick in einige der jüngsten Entwicklungen der Maschinen und in ihr Potential geben.

Selbständige Ernährung

PR2 kann Türen öffnen, Steckdosen finden und sich selbständig aufladen. Roboter, die sich selbst um ihren Energiehaushalt kümmern, gibt es zwar schon seit den 60ern, das Besondere an PR2 ist aber, dass er darin äußerst verlässlich ist: Innerhalb einer Stunde hat er in einem Test zehn Türen geöffnet und die dahinterliegenden Steckdosen benutzt. In einem weiteren Experiment konnte er im Büro seiner Entwickler (dem Forschungsteam Willow Garage im Silicon Valley) rollend einen gesamten Marathon bewältigen, ohne dass ihm zwischenzeitlich der Saft ausging.
Währen PR2 auf Infrastruktur angewiesen ist und sich wohl in Altersheimen und Krankenhäusern am wohlsten fühlt, ist EATR mehr was für die Wildnis. Der Energetically Autonomous Tactical Robot ernährt sich ausschließlich organisch. Mit 75 Kilogramm verdautem Pflanzenmaterial kann sich der fahrende Militärroboter angeblich bis zu 160 Kilometer weit durch unwirtliches Gelände befördern. Befürchtungen, dass sich der Vielfraß auch einmal an menschlichen Überresten vergreifen könnte, weisen die Entwickler (die US-Unternehmen Cyclone Power Technologies und Robotic Technology) zurück. Erstens sei er Vegetarier und zweitens verstoße das ja gegen die Genfer Konventionen und wäre ein Kriegsverbrechen.

Autonome Entscheidungen

Im Irak haben südkoreanische Truppen in den letzten Jahren den von Samsung entwickelten Überwachungs- und Sicherheitsroboter SGR-A1 zum Schutz ihrer Lager verwendet. Das fix montierte Gerät kann vollautomatisch Eindringlinge erkennen, zwischen Menschen und Tieren unterscheiden, per Sprechanlage warnen und bei Nichtbeachtung der Warnung schießen – entweder mit Gummigeschossen oder mit scharfer Munition aus einem leichten Maschinengewehr. Samsung empfiehlt die Verwendung des Roboters nicht nur für Kriegsgebiete, sondern auch zum Schutz von sensiblen Anlagen wie Kasernen, Kraftwerken oder Flughäfen. Südkorea überlegt derzeit den Einsatz der „intelligenten“ Selbstschussanlage an der Grenze zu Nordkorea.
Der Irak hat sich aber auch für eine weitere Waffengattung als Experimentierfeld förmlich angeboten: Wie auch in Afghanistan setzen die US-Truppen vermehrt auf unbemannte Drohnen – ferngesteuerte Flugobjekte, die verschiedenste Aufgaben übernehmen können. Insbesondere werden sie für Erkundigungsflüge und letale Spezialeinsätze gegen gut verschanzte Widersacher eingesetzt. Ihr größter Vorteil ist, dass mau im schlimmsten Fall nur mit einem Haufen Schrott dasteht und nicht gefallene SoldatInnen in Plastiksärgen nach Hause schicken muss, welche die ohnehin schon abgeflaute Kriegseuphorie weiter schädigen könnten. Als nachteilig, aber leicht zu vertuschen erweisen sich die relativ hohen Kollateralschäden. Offizielle Zahlen gibt es hierzu verständlicherweise nicht, Quellen sprechen aber von bis zu 700 toten ZivilistInnen bei nur 14 Volltreffern. Beachtenswert ist hierbei auch, dass der Einsatz dieser Waffen, der anfangs noch breit diskutiert und kritisiert wurde, heute medial relativ gelassen als akzeptables Kampfmittel hingenommen wird. Für die Zukunft plant die US Air Force gemäß einem Dokument mit dem Titel „Unmanned Aircraft Systems Flight Plan 2009–2047“ einen massiven Ausbau dieser Waffengattung und die Entwicklung vollkommen autonomer Systeme in allen möglichen Größen. Diese unbemannten Flugzeuge sollen u.a. auch ohne Fernsteuerung selbst über Änderungen des vorgegebenen Kurses, über Durchführung oder Abbruch des Auftrages sowie über den Einsatz von letalen Waffen entscheiden können.
Währenddessen arbeiten Heimatschutz- und Verteidigungsministerium an Forschungsprogrammen zur Entwicklung von Systemen, die „feindliche Absichten“ erkennen sollen. Über Körperwärme, Schweißbildung und andere biometrische Daten sollen auch aus größerer Entfernung Zustände wie Angst automatisiert diagnostiziert werden, um z.B. auf Flughäfen potentielle TerroristInnen ausforschen zu können.
Technologien, die durchaus zusammengeführt werden könnten …

Königsklasse A.I.

Während andere Roboter bereits gehen lernen, Fußball spielen, Stöße ausgleichen, nach Stürzen wieder aufstehen oder sogar Menschen gegenüber Gefühle zeigen können, ist ein Bereich besonders schwierig zu knacken: Den Turing-Test (siehe Artikel Test der Turingmaschine in dieser Ausgabe) hat noch kein Roboter bestanden. Die künstliche Intelligenz (englisch: Artificial Intelligence, kurz A.I.) von guten Computerviren entspricht grob gesagt dem Verstand von Küchenschaben – was für ihre Größe nicht schlecht ist. Aber auch komplexere Systeme kommen noch lange nicht einem menschlichen Gehirn nahe. Das könnte allerdings schneller passieren, als wir uns derzeit vorstellen können. Seed Artificial Intelligence ist der Zauber-Begriff, der das beschreibt, was Computersysteme zu selbständig denkenden Einheiten machen soll. Hierbei handelt es sich um Programme, die sich selbst analysieren und verbessern können, wobei jeweils das Ergebnis sich wiederum selbst weiterentwickelt. An solchen Projekten arbeiten verschiedene Teams wie z.B. Novamente (www.novamente.net) oder auch a2i2 (http://www.adaptiveai.com). Sobald nun solche künstliche Intelligenz geschaffen wäre, könnte es nur noch eine Frage der Zeit sein, bis diese der menschlichen ähnlich und sie sogar überflügeln würde.

Die Singularität

Bei der Entwicklung künstlicher Intelligenz ergeben sich also zwei entscheidende Schwellen: Die erste besteht in der Schaffung von Seed Artificial Intelligence, durch welche ein Selbstlaufprozess ins Rollen gebracht wird, die zweite im Erreichen einer der menschlichen ebenbürtigen bzw. sie übertreffenden Intelligenz. Diese zweite Stufe wird als technologische Singularität bezeichnet – ein Ereignis, das einen nie da gewesenen Effekt auf die Menschheit haben wird. PessimistInnen gehen davon aus, dass kurz darauf die Menschheit überflüssig und ausgelöscht wird, RealistInnen sind der Meinung, dass sich über den Zeitpunkt der Singularität hinaus keine Vorhersagen machen lassen, da unsere Intelligenz dazu nicht ausreicht, und OptimistInnen (sie werden auch TranshumanistInnen genannt) sind der Überzeugung, dass wir und die gesamte Welt durch diese Entwicklung einen großen Sprung nach vorne machen, den Globus retten und alle Probleme lösen werden können.
Auch darüber, wie diese Singularität erreicht wird, herrscht Uneinigkeit. Im Großen und Ganzen gibt es drei Szenarien:
Erstens könnten Maschinen entwickelt werden, die in ihrer Intelligenz und in anderen wesentlichen Bereichen mit den Menschen gleichziehen. Die Folge wären wohl dem Homo sapiens überlegene künstliche „Wesen“, die einer neu zu definierenden Familie der intelligenten Maschinen innerhalb der Ordnung der Maschinen zuzuschreiben wären.
Als zweites besteht die Möglichkeit, dass eine höhere Intelligenz durch die Symbiose von Mensch und Maschine bzw. durch Optimierung der natürlichen menschlichen Intelligenz mittels Genetik entsteht. Gehirn-Comuter-Schnittstellen und/oder Fortschritte in der Genetik würden Individuen zu bisher nie da gewesenen geistigen und wohl auch anderen Fähigkeiten verhelfen und innerhalb der menschlichen Gattung neben dem Homo sapiens eine weitere Art schaffen. Wie schon im ersten Fall wäre die Folge, dass der uns bekannte Mensch ohne entsprechende Aufrüstung intellektuell nicht mehr folgen kann und im günstigsten Fall einfach zurückfällt, im ungünstigsten verdrängt wird und ausstirbt.
Sowohl die Maschine als auch der Cyborg/Übermensch würde sich wohl die Menschen untertan machen, wie sie selbst es mit allen anderen Wesen und Dingen gemacht haben. Das Werkzeug wird zum Meister, der Meister zum Werkzeug.
Die dritte Alternative beinhaltet das unvermittelte Entstehen höherer Intelligenz durch das Zusammenwirken moderner Computernetze und ihrer Anwender. Das Netzwerk selbst wird zum Wesen und stellt seine Interessen über die der beinhalteten Individuen, welche sich widerstandslos einordnen und Teil von etwas Höherem werden.

Welt der Maschinen

Geprägt wurde der Begriff der technologischen Singularität von dem Mathematiker Vernor Vinge, der 1993 im Rahmen eines Symposiums in seinem Artikel Technological Singularity folgendes Szenario entwarf: Within thirty years, we will have the technological means to create superhuman intelligence. Shortly after, the human era will be ended.
Nach Ausführungen darüber, weshalb das Eintreten der Singularität wahrscheinlich ist, diskutiert die Studie, ob die Entwicklung übermenschlicher Intelligenz zu verhindern ist und ob andernfalls das menschliche Überleben dennoch gesichert werden kann. Dabei kommt Vinge zu dem Schluss, dass die Entwicklung von entsprechender künstlicher Intelligenz unter Umständen nicht möglich ist, insbesondere da unser Gehirn bei Weitem komplexer als bisher bekannt und für die technologische Entwicklung uneinholbar sein könnte. Sollte sie aber erreichbar sein, wird die Singularität unaufhaltbar eintreten: Der Wettbewerb unter den Menschen würde die Entwicklung solch übermenschlicher Kräfte so reizvoll machen, dass kein Gesetz, keine Abmachung der Welt es verhindern könnte. Die Wahrscheinlichkeit, dass sich die entstehenden transhumanen Wesen von uns kontrollieren lassen, hält er für gering. Angesichts des Umgangs des Menschen mit weniger entwickelten Lebewesen zeichnet er für die Zeit nach der Singularität ein düsteres Bild für die Menschheit.

Moore’s Gesetz

Positiver steht Raymond Kurzweil, seines Zeichens Spracherkennungssoftware-Pionier und Keyboard-Produzent, der Zukunft gegenüber. (LiebhaberInnen etwas dubioser Rockmusik kennen seinen Namen vom Tasteninstrument der Dresden Dolls, auf welchem der Markenname kurzerhand in Kurt Weil abgewandelt worden ist.) Wie auch Vinge beruft sich der relativ anerkannte A.I.-Visionär auf das Mooresche Gesetz. Dieses – mehr eine Faustregel als ein wissenschaftliches Gesetz – besagt, dass sich die Anzahl der Schaltkreiskomponenten auf einem Computerchip alle zwei Jahre verdoppelt. Während andere WissenschaftlerInnen an der dauerhaften Gültigkeit dieser Regel zweifeln, gehen FuturologInnen wie Kurzweil davon aus, dass dieses Muster nur ein Teilaspekt eines allgemeineren Gesetzes ist, das generell für die technologische Entwicklung gilt, welche demgemäß eine exponentielle Evolution verfolgt.
Kurzweil sieht der Singularität relativ gelassen entgegen und geht davon aus, dass, wenn sie auch aus jetziger Perspektive unvorstellbar und erschreckend wirkt, unsere geistigen Fähigkeiten mit den technologischen Entwicklungen mitwachsen und mit ihr zurecht kommen werden. Er träumt von der Übertragung unseres Gehirns auf künstliche Körper und von Verbesserung und graduellem Ersetzen unseres organischen Leibes durch Nanotechnologie. Unsterblichkeit, vollkommen wirklichkeitstreue virtuelle Realität sowie die Symbiose biologischer und künstlicher Intelligenz würden die Früchte der technologischen Errungenschaften der nächsten Jahrzehnte sein. Kurzweil weist auch auf mögliche Gefahren hin: Regierungen oder andere Organisationen könnten beispielsweise Nanobots im Trinkwasser aussetzen, welche, von der Bevölkerung aufgenommen, diese ausspionieren, beeinflussen, wandeln oder gar steuern. Alles in allem ist er aber der Überzeugung, dass die positive und konstruktive Verwendung der Technologien überwiegen werde.
Schöne neue Welt.

NetzwerkNachsatz – intelligente Netze

Wenn Google Daten sammelt und beständig bemüht ist mehr über uns und die Welt zu wissen, wenn es Menschen anstellt, welche seine Fähigkeiten ausbauen, uns mehr Möglichkeiten zu geben, Macht und Wissen von Google zu mehren, wenn wir dem gleichzeitig gerne nachkommen, weil wir das Gefühl haben, dass es unser Leben verbessert, es bequemer macht, wenn wir uns dabei gerne in eine Abhängigkeit begeben und für ein wenig persönlichen Vorteil die Vorteile des übergeordneten Elements explodieren lassen, sind wir dann nicht schon dort? Hat uns die Singularität bereits? Ist vielleicht eine Facette der höheren Intelligenz die Strategie, uns nicht merken zu lassen, dass sie längst existiert?
Wir werden es nie erfahren. Haha!

_Weiterführende Lektüre:_
– Vinges Technological Singularity: http://mindstalk.net/vinge/vinge-sing.html
– Kurzweils The Law of Accelerating Returns: http://www.kurzweilai.net/the-law-of-accelerating-returns
– Katsuhiro Otomo: Akira, Young Magazine 1982-1990 (dt. Fassung: Carlsen Verlag 2000/01).
– Frank Miller: Hard Boiled, Dark Horse Comics 1990.
– Tsutomu Nihei: Blame!, Afternoon 1997-2003 (dt. Fassung: Egmont Manga & Anime 2001-2004).

_Filme dazu:_
– THX 1138 (George Lucas 1971)
– Blade Runner (Ridley Scott 1982)
– Ghost in the Shell (Mamoru Oshii 1995)
– The Animatrix (2003) – http://www.intothematrix.com
– The Singularity is Near (Kurzweil/Waller 2009)


___________

  • mau = man(n)/frau

 

Kommentare

Intelligenz und Selbsterhaltung

Hm, interessanter Artikel. Dennoch scheint mir folgender Gedankengang merkwürdig: Es wird immer davon ausgegangen, dass eine höhere Intelligenz den Menschen verdrängen, oder versklaven würde. Als Beispiel wird der Umgang des Menschen mit anderen Lebewesen angegeben. Das Streben nach Macht, Herrschaft und Territorium scheint aber keineswegs mit Intelligenz korreliert zu sein, sondern kommt bei ganz "niederen" Lebewesen ebenso vor. Vielmehr scheint dieses Streben aus dem evolutionären Selbsterhaltungs- und Sexualtrieb zu entstammen. Wieso aber eine Maschine, die keinem physisch-evolutionären Prozess entspringt, sondern "nur" eine hohe Intelligenz aufweist, gleichzeitig mit dieser einen "animalischen" Selbsterhaltungs- und Beherrschungstrieb entwickeln soll, geht für mich aus dem Kontext nicht hervor.

Selbsterhaltung und Bewußtsein

Berechtigte Kritik. Wenn das Streben nach Macht, Herrschaft und Territorium aber auch bei "niederen" Wesen vorhanden ist, und - darwinistisch gedeutet - überhaupt die Triebfeder zum Überleben und existenttiell Erfolgreichsein darstellt, warum sollte sie dann bei künstlichen Wesen, die quasi unsterblich sind, da sie sich selbst verbessern bzw. verbessert reproduzieren können nicht vorhanden sein?
Eine meiner Einschätzung nach entscheidende Frage, die in diesem Artikel aufgrund des beschränkten Rahmens zugegebenermaßen vernachlässigt wurde, ist, wie weit sich bei Maschinen so etwas wie ein künstliches Bewußtsein entwickeln können wird. Überlegungen dazu sind meines Wissens aber noch weit spekulativer als die bezüglich der künstlichen Intelligenz.

Bewußtsein und Triebhaftigkeit

Wie weit sich ein Bewusstsein aus dem Vorhandensein von Intelligenz entwickeln kann/muss ist eine in der Tat interessante Frage. Doch scheint das Bewusstsein, sollte es sich als logische Konsequenz der Intelligenz ergebenen (was keineswegs als vorausgesetzt angesehen werden kann), nicht zwingend auf den Selbsterhaltungstrieb zu verweisen, ganz analog, wie dies von Intelligenz an sich behauptet werden kann. Daher erscheint die These, dass sich derartige Triebe bei künstlichen Wesen nicht entwickeln immer noch wahrscheinlicher, als dass dies eintreten würde, da eigentlich keine Voraussetzungen für eine evolutionäre Notwendigkeit bei künstlicher Intelligenz vorhanden sind. Viel mehr scheint mir hier eine Projektion der eignen Existenz auf potentielle „Lebensformen“ in der diesbezüglichen Literatur vorzuliegen. Das wiederum muss wohl als allzu menschlich angesehen werden.

Neuen Kommentar schreiben

Plain text

  • Keine HTML-Tags erlaubt.
  • Internet- und E-Mail-Adressen werden automatisch umgewandelt.
  • HTML - Zeilenumbrüche und Absätze werden automatisch erzeugt.
By submitting this form, you accept the Mollom privacy policy.