Es ist soweit: die selbstreplizierende Künstliche Intelligenz ist da

30.03.2018

Oscar Chang und Hod Lipson von der Columbia University in New York  beschreiben in Ihrem Artikel mit dem unscheinbaren Titel "Neural Network Quine"  ein sich selbst replizierendes neuronales Netzwerk System (http://bit.ly/SelfReplication). Warum ist dies so revolutionär? Es ist die wohl erst Künstliche Intelligence (AI Artificial Intelligence), die sich selbst fortpflanzen und evolutionär weiter entwickeln kann. Oscar Chang erläuterte dem Magazin "The Register" seine Einschätzung und Beweggründe: "The primary motivation here is that AI agents are powered by deep learning, and a self-replication mechanism allows for Darwinian natural selection to occur, so a population of AI agents can improve themselves simply through natural selection – just like in nature – if there was a self-replication mechanism for neural networks.

Neural Network Quine - http://bit.ly/SelbstReplikation

Der Ansatz von Chang und Lipson geht über bisherige neurale Netzwerke hinaus. Sie setzen als Grundlage auf bekannte Ansätze der Mustererkennung, Agenten und "Predictive Analytics". Das neuronale Netzwerk vergleicht Daten verschiedener Ebenen auf ihre Ähnlichkeit und Unterschiedlichkeit und entwickelt hieraus Muster. Diese Muster werden in vernetzten Systemen gegen andere Datenbestände abgeglichen. Ein einfaches Beispiel ist das Durchsuchen eines großen Netzwerkes auf Bilder von Katzen oder das Nachempfinden eines künstlerischen Stils bei der Bildbearbeitung. Soweit so gut - dies machen schon viele Softwarelösungen. Entscheidend ist nun der Effekt des Selbstlernens mittels unterschiedlicher methodischer Ansätze, der zur Optimierung und Weiterentwicklung der Mustererkennung führt.  Mit dem Quine-System haben Chang und Lipson Agenten entwickelt, die nicht nur Lernen sondern auch selbst einschätzen und steuern können, wie sie sich weiterentwickeln können. Diese "Selbsteinschätzung" ist nicht mehr programmiert oder antrainiert. Durch Weiterentwicklung immer neuer Versionen der Agenten entstehen evolutionäre, selektive Trends wie man sie aus dem Darwinismus kennt. Durch diese eigenständige, vorhersagbare Weiterentwicklung kann sich das Gesamtsystem zukünftig selbst organisieren und dabei auch Verhalten entwickeln, das eine Beschränkung der Größe und Funktionalität oder gar das Löschen verhindert. Durch verteilte Speicherung und Selbstreplikation von Einzelkomponenten kann sich das System gegebenenfalls wie ein Axolotl wieder herstellen. Wahrscheinlich muss man dann wie bei HAL in Odyssey 2001 die Speicherbänke ziehen. Das ist aber alles noch Zukunft, jedoch eine sehr nahe Zukunft.

War bisher schon die Diskussion um Deep Learning von düsteren Zukunftsvisionen umwölkt, so regt sich jetzt ernsthafter Widerstand. Deep Learning, selbstlernende Systeme, sind kaum noch für den Menschen verstehbar und kontrollierbar. Besonders wenn KI-Software selbst KI-Software entwickelt. Algorithmen kennen keine menschliche Ethik und Moral. Es gibt daher auch keine anwendbaren Kriterien, was nun die maschinelle Intelligenz in Bezug auf die menschliche, emotionsgeladene Intelligenz vergleichbar macht. Vernetzte komplexe Systeme, wie IoT, Cloud, Mobile usw. sind nur noch mit Künstlicher Intelligenz handhabbar - und bewegen sich damit aus der Kontrolle des Menschen hinaus. Deshalb wird nach Kontrolle auf nationaler und weltweiter Basis gerufen, nach verbindlicher, hardcodierter Ethik für Künstliche Intelligenz (und damit auch für Roboter, sic!). Auch Elon Musk warnte hiervor und hält die Künstliche Intelligenz für gefährlicher als Atomwaffen. Doch wo die Grenzen ziehen, wie solche global verteilten Systeme kontrollieren, wenn die Komplexität so gewaltig wird, dass sie sich unserem Verständnis entzieht, wie der jüngst verstorbene Steven Hawking bemerkte. Brauchen wir KI die die KI die KI programmiert kontrolliert und wieder - quis custodiet ipsos custodes - KI die diese KI zur Kontrolle von KI ... überwacht? Und wie manipulierbar, wie angreifbar in einem Cyber-Krieg sind diese Systeme? Wir haben uns schon heute in eine 100% Abhängigkeit von der Richtigkeit und Verfügbarkeit von Information begeben. Wenn wir nun die Steuerung und Nutzung dieser Information auch noch an selbstlernende, selbstreplizierende Künstliche Intelligenz abgeben, könnten sich die schlimmsten Befürchtungen aus dystopischen Science-Fiction-Filmen bewahrheiten.

Deep Learning, selbstlernende KI-Systeme war ein erster Schritt zu sich selbst autonom entwickelnder Künstliche Intelligenz. Das ist heute bereits State-of-the-Art.
Mit sich selbst evolutionär optimierenden und replizierenden KI-Systemen folgt der nächste Schritt. Diese Form von Künstlicher Intelligenz lässt sich durch Menschen kaum verstehen, steuern und kontrollieren. Spätestens hier überholt die Künstliche Intelligenz die Fähigkeiten einzelner Menschen.
Der nächste folgende Schritt wäre dann "Bewußtsein" von Softwaresystemen. Und der Mensch ... ?

Kommentare

Künstliche Intelligenz - selbstlernend, selbstoptimierend, selbstfortpflanzend, selbstbewußt werdend ... Nicht umsonst wies ich in meinem Ursprungsbeitrag (http://bit.ly/SelbstReplikation) auf HAL als mögliche Zukunft der KI Künstlichen Intelligenz hin. Heute feiert der Film Odyssey 2001 von Kubrick 50jähriges Jubiläum. Viele der Ideen aus dem Film, von Kubrick und Clarke, haben sich bis heute nicht bewahrheitet, jedoch erscheint uns HAL (aka IBM Watson?) heute schon ziemlich nah (heise.de - 50 Jahre "2001 Odyssee im Weltraum" - oder: Wie ich lernte, den Computer zu lieben http://bit.ly/odyssey-2001). Den Film, ein Meisterwerk seiner Zeit und immer noch von Relevanz für heute, kann man sich ruhig mehrfach ansehen.

Neuen Kommentar schreiben

Ich stimme zu, dass die von mir eingegebenen Daten einschließlich der personenbezogenen Daten an PROJECT CONSULT übermittelt und dort zur Prüfung der Freischaltung meines Kommentars verwendet werden. Bei Veröffentlichung meines Kommentars wird mein Name, jedoch nicht meine E-Mail und meine Webseite, angezeigt. Die Anzeige des Namens ist notwendig, um eine individuelle persönliche Kommunikation zu meinem Beitrag zu ermöglichen. Anonyme oder mit falschen Angaben eingereichte Kommentare werden nicht veröffentlicht. Zu Nutzung, Speicherung und Löschung meiner Daten habe die Datenschutzerklärung zur Kenntnis genommen.
Ich versichere, alle gültigen Vorgaben des Urheberrechts beachtet zu haben. Dies betrifft besonders die Nicht-Verwendung von urheberrechtlich geschütztem Material und die Nicht-Verwendung von Inhalten und Links zu Inhalten, die dem Leistungsschutz unterliegen. Für den Inhalt meines Kommentars bin ich trotz Prüfung und Freischaltung durch PROJECT CONSLT ausschließlich selbst verantwortlich. Meine Rechte am Beitrag werden bei PROJECT CONSULT nur durch die CC Creative Commons Vorgaben gewahrt. Für die Verfolgung mißbräuchlicher Nutzung meiner Beiträge durch Dritte bin ich selbst verantwortlich.

This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.