Vernetzung

 

Cog *

Replikator *

Resümee *

 

 

In den vorangegangenen Kapiteln habe ich Strategien aus den Bereichen Informatik, Experimentelle Informatik, Neurowissenschaften und Robotik aufgezeigt, die darauf abzielen, eine Künstliche Intelligenz zu erschaffen. Die Strategien sind alle recht unterschiedlicher Natur. Sie unterliegen verschiedenartigsten Annahmen und Schluß-folgerungen. Das heißt aber nicht, das sie nicht miteinander verknüpfbar wären. Im Gegenteil.

Dieses Kapitel zeigt an einigen Exemplaren und Denkbeispielen, wie weitreichend solche Verknüpfungen bereits gehen oder in Bälde gehen könnten. Im folgenden und abschließenden Teil dieser Arbeit werden dann die Positionen des Designs näher untersucht, die sich besonders auf die hier aufgemachten Szenarien stützen.

 

Cog

Im letzten Kapitel war oft die rede von Rodney Brooks und den ersten ´vintage´ Robotern seines Forscherteams am MIT. Diese ´Moboter´, von Squirt über Genghis bis zu Toto, stammen aus den frühen 90er Jahren, manche sind sogar noch älter.

Mittlerweile hat sich herausgestellt, daß die Subsumption Architektur sehr nützlich ist, um die Grundfunktionalität für bewegliche Roboter herzustellen, daß es aber schlichtweg unmöglich ist, komplexe Bewußtseinsstrukturen auf Basis von elektronisch nachempfundenen Reflexhierarchien darzustellen. Nach etwa vierzig Layers wird der architektonische Apparat zu unübersichtlich, um noch vernünftig ´debugged´ zu werden. Die Intelligenz von Mobotern reicht demnach kaum über den Intellekt von Insekten hinaus.

Daher hat Brooks sich dazu entschieden, weitere Strategien in sein Konzept zu integrieren. Mit ´Machinevision´, einer auf Neuronalen Netzen basierenden Auswertung von Videobildern, und ´evolvable Hardware´, der variablen Chiparchitektur von Xilinx (s.o.), hat man im AI-Labor in Massachussets einen Hybriden Roboter aus mehreren Sparten der KI-Forschung hergestellt: Cog.

Cog ist einem menschlichen Torso nachempfunden, er hat einen Kopf mit vier Videokameras, Mikrophone, zwei Arme (für die es Hände in unterschiedlichen Ausführungen gibt) und einen auf einem Tisch montierten Oberkörper.

Dieser humanoide Roboter, im Fachjargon ein ´Android´, ist über eine Vielzahl von Kabeln an Computer und Neuronale Netze angeschlossen. Die Hardware bietet Schnittstellen zu weiteren Modulen, so daß Cog sowohl in Software als auch in Hardware evolviert werden kann. Dadurch werden Cog ständig neue Verhaltensmuster beigebracht, so daß seine Fähigkeiten mit jedem Semester am MIT wachsen.

Das Ziel dieser Auseinandersetzung ist es, die Maschine nach und nach beispielsweise die piaget’schen Entwicklungsphasen (siehe Teil 2: Intelligenz) durchleben zu lassen, an den Ergebnissen ihre kognitive Struktur zu messen und entsprechend zu erweitern, so daß irgendwann eine Maschine entsteht, die bis zu einem gewissen Grade menschliches, vielleicht kindliches, Verhalten repräsentiert.

Cog wird derzeit als das ehrgeizigste Vorhaben der KI-Forschung angesehen. Die Ergebnisse von mehrjähriger Arbeit sind erstaunlich, gemessen an dem, was bis dato auf dem Sektor ´kognitive Robotik´ zu sehen ist. Er erkennt (manche) Leute am Gesicht und spielt mit Gegenständen.

Ich denke, daß hier ein wichtiger Schritt für die Künstliche Intelligenz erstmals Konsequent vollzogen wird: Die Vernetzung erfolgreicher Ansätze aus unterschiedlichen Forschungsbereichen, die sonst als komplementär angesehen werden.

 

Replikator

Aus Gene Roddenberries ´Star Trek´ kennt man kleine Löcher in der Wand, die wie Getränkeautomaten gehandhabt werden, aber alles Eßbare – und auch nicht-Eßbares – herzustellen vermögen. Offensichtlich gibt es Vorratsbehälter für Grundstoffe, die in entsprechender Weise, je nach Kundenwunsch, kombiniert werden können. Daraus entstehen sowohl die Nahrungsmittel als auch die Speisen.

Möglicherweise, wenn man der Quantenmechanik glaubt, braucht man nicht einmal die Vorräte, da man jede Materie auch mittels Energie in Feldern darstellen kann.

Solche Utopien von Automaten, die beliebige Dinge stofflich darstellen können, erscheinen sehr unwirklich, wenn es um organische, lebendige Substanzen geht, erinnern sonst aber stark an Rapid Prototyping-Anlagen.

Bislang sind diese Verfahren noch sehr einseitig, da sie sich auf spezifische Materialien konzentrieren. Aus dem Virtuellen ´replizierte´ Modelle können daher nicht aus Materialkombinationen bestehen, geschweige denn aus den technischen Möglichkeiten eines Verfahrens ausbrechen. Gefräste Modelle werden gefräst, lithographierte Modelle lithographiert, jedes der spezifischen Eigenschaften inhärent. Elektronisch funktionale Produkte können so beispielsweise nicht dargestellt werden. Die Konzentration der Verfahren gilt deshalb der Form.

Ein anderes, automatisiertes Herstellungsverfahren ist das Fließband, an dessen Produktionsstrecke Menschen und Roboter einzeln oder gemeinsam Produkte heterogen materialisieren. Hier werden unterschiedliche Fertigungsverfahren seriell angewendet, allerdings in sehr viel größerem Maßstab als beim Rapid Prototyping.

Ralph Hollis von der Carnegie Mellon University in Pittsburgh arbeitet an einem Verfahren, das die Vorteile von serieller, heterogener Fließbandfertigung und Rapid Prototyping zusammenfaßt. Auf einer Fläche von etwa zwei Quadratmetern agieren kleine, quadratische Roboter, ´Couriers´, die beliebige Werkstücke mit sehr hoher Geschwindigkeit transportieren und diese auf wenige Nanometer genau positionieren können. Über dem Tisch sind Manipulatoren angebracht, die die Werkstücke aufnehmen, hinzufügen oder bearbeiten können. Am Rand des Tisches befinden sich ´Supplier´, die Rohmaterialien liefern.

Mehrere solcher Tische lassen sich frei arrangieren, um optimale Bedingungen für den jeweiligen Fertigungsprozeß herzustellen.

Die Couriers sind autonome Roboter, die selbständig entscheiden, welchen Arbeitsprozeß sie an dem Werkstück, das sie tragen, als nächstes ausführen lassen. Dabei agieren bis zu zwanzig von ihnen gleichzeitig auf einer ´Tischplatte´. Sie kommunizieren untereinander und planen ihre Wege so, daß alle Roboter möglichst kurze Wege zurücklegen müssen. Sobald sie den Einsatzort für einen Manipulator erreicht haben, stoppen sie und geben dem Manipulator vor, was dieser an dem Werkstück zu tun hat. Manipulatoren können auf alle möglichen Aufgaben von Löten, Schneiden, Bohren bis zu Fräsen spezialisiert sein.

Ein zentraler Rechner vergibt die zu erledigenden Aufgaben nach den Bauplänen für die anzufertigenden Produkte. Unterschiedliche Werkstücke und Produkte lassen sich zeitsparend zur selben Zeit herstellen, so daß die Manipulatoren und Couriers vorteilhaft genutzt werden.

Diese Technik, die ´Architecture for Agile Assembly´, kurz ´AAA´, genannt wird, ermöglicht die prototypische Herstellung von kleineren Objekten wie Minicomputern inklusive aller elektronischer Hardwarekomponenten. Allein an einem einzigen solchen Tisch im Experimentierstadium konnte bereits eine Festplatte in wenigen Minuten hergestellt werden.

Andere Verfahren, die ich kurz nennen will, arbeiten beispielsweise mit autonomen Robotern, die sich um das zu bearbeitende Werkstück gruppieren und gemeinsam an dessen Fertigstellung arbeiten. Dieses Prinzip wird unter anderem in der Mikrosystemtechnologie und der Nanotechnologie angewandt. Solche Roboter können wie die Manipulatoren des ´AAA´ auf unterschiedliche Aufgaben spezialisiert sein.

´MINIMAN II´, der an der Uni Karlsruhe unter Heinz Wörn entwickelt wurde, bearbeitet nanotechnische Werkstücke mit einer Genauigkeit von 2 Nanometern. Dabei kann er sich auf der Arbeitsfläche mit dreißig Zentimetern pro Sekunde bewegen. Für die Kontrolle des Fertigungsprozesses hat MINIMAN II keine Sensoren (da diese im Nanobereich auch nicht funktionieren würden), sondern wird von einem System überwacht, das den Fertigungsprozeß unter einem Rasterelektronenmikroskop mitverfolgt.

Diese Techniken stehen dafür, daß Prototypingprozesse erheblich weiter gehen werden als dies die konventionellen Formbautechniken wie Stereolithographie, CNC-Fräsen oder LOM tun. Mit der inkorporierten Künstlichen Intelligenz aus der Robotik und anderer Bereiche wird es möglich, Kleinstfabriken für stark heterogene Produkte zu realisieren.

Meiner Ansicht nach geht der Trend hin zu Produktgeneratoren, die ähnlich den utopischen ´Replikatoren´ beliebige Entwürfe umsetzen können, und zwar sehr schnell.

Die Realisation des ´Individuellen Produktes´, das Unikatstatus hat, weil es den sehr expliziten Einzelkundenwünschen entspricht, wird ebenso denkbar wie die Möglichkeit des ´Evolvierten Produktes der realen Welt´ (siehe Teil 3: Digitale Evolution), das in einer Simulation gezüchtet wird, dann in die reale Welt ´repliziert´ wird, um auf seine Leistungsfähigkeit unter komplexen Bedingungen getestet und anschließend weiter evolviert zu werden.

Vielleicht werden Produkte auch nur noch in Form von Datensätzen verkauft, die jeder daheim im eigenen, persönlichen Replikator ´zur Welt holt´.

 

Resümee

Dies sind nur zwei Beispiele, die aufzeigen, welchen synergetischen Einfluß die Vernetzung unterschiedlicher Disziplinen der KI hat. Man kann wahrscheinlich noch etliche weitere aufzählen.

Ich glaube, daß wir vor ziemlich einschneidenden Veränderungen der Gesellschaft im allgemeinen und des Designs im speziellen stehen. Alle Konsequenzen, die die Entwicklung einer Künstlichen Intelligenz mit sich zieht, müssen auch nach ethischen Gesichtspunkten hinterfragt werden.

Im folgenden und letzten Teil dieser Arbeit beschreibe ich deshalb eine Anzahl von Szenarien zu ´intelligenten Produkten´ und zur Designmethodik mit Künstlicher Intelligenz, bevor ich mein Fazit zur Debatte über KI gebe.