Roboter Werkzeug oder Maschinenmensch? Über die Mechanisierung der Sinne

An wen denn auch, außer an die eigene Spezies, uns Menschen, sollte der Verzweiflungsruf “Hear me! See me! Feel me!” aus der Rockoper “Tommy” gerichtet sein? Das war in den siebziger Jahren dieses Jahrhunderts. Doch wäre es zu Beginn des zweiten Jahrtausends ausgeschlossen, daß vielleicht ein Roboter den Hilfeschrei erhörte?

Roboter? Man kennt sie entweder als androide (menschenähnliche) Fabelwesen aus unzähligen Zukunftsgeschichten oder als zumeist unförmige Gebilde, welche auf unterschiedlichstem Terrain Arbeiten zu verrichten haben, die für Menschen zu monoton oder zu gefährlich sind. Vermutlich, um erst gar keine Verbindung zur Fiktion aufkommen zu lassen, wird in technisch orientierten Broschüren oder Zeitschriften, wenn von Robotics die Rede ist, in einer unterkühlten, nur die rein technische Seite betonenden Sprache geschrieben, etwa folgendermaßen: “Robotics beinhaltet Fertigungsrechner und programmierbare Steuerungen mit ihren Programmiersprachen ebenso wie die Sensorik oder die rechnerunterstützten Entwurfs-, Planungs- und Simulationssysteme, die im Bereich der Konstruktion und Arbeitsplanung eingesetzt werden.” (1)

Dabei entstammt das Wort ‘Robotik' einem gänzlich anderen Umfeld - eben der Science-Fiction-Literatur. Die Erfindung des Begriffs ‘Robotik’ in der Mitte unseres Jahrhunderts nimmt der amerikanische Schriftsteller Isaak Asimov für sich in Anspruch, während der Terminus Roboter dem tschechischen Dramatiker Karel Capek zugeschrieben wird, der ihn in seinem 1921 uraufgeführten Stück “R. U. R. (Rossums Universal-Roboter)” verwandte. Noch älter ist das Wort robot, das sich vom slawischen robota (Arbeit) herleitet, womit in den ehemals slawischen Provinzen Österreich-Ungams die Fronarbeit bezeichnet wurde. In diesem Sinne hat Capek seine Wortschöpfung auch gebraucht: Capeks Zentralfigur, Rossum, ein genial-verrückter Wissenschaftler, erschafft eine Reihe künstlicher androider Arbeitssklaven, zunächst nur vorgesehen, um den Menschen die schwersten Arbeiten abzunehmen. Bald jedoch werden die Roboter mißbraucht und als Kriegsmaschinen eingesetzt. Als man ihnen gar die Möglichkeit verschafft zu denken und zu empfinden (sie werden ‘beseelt’), erkennen sie ihr Sklavendasein, revoltieren gegen ihre Unterdrücker und vernichten am Ende alles menschliche Leben.

Bloß eine spannende Geschichte oder allenfalls eine Satire auf die technisierte Gesellschaft? Schließlich arbeiten sie heute überall zur vollsten Zufriedenheit -die Industrieroboter. Sie sind ein unverzichtbarer Teil der Industriegesellschaft geworden. Zwar nehmen sie Arbeitsplätze weg, die jedoch in der Regel bestimmt wurden durch sich unablässig wiederholende, stumpfsinnige, dem Menschen unwürdige Tätigkeiten. Übersehen sollte man indessen nicht, daß Industrieroboter nur die Oberfläche darstellen, das Machbare, darunter wuchert die Idee vom Maschinenmenschen. Eine alte Idee, “so alt wie die Sehnsucht der Menschen nach einem Diener, der so klug wie ein Mensch ist, aber weit stärker, und dem es unmöglich ist, müde, gelangweilt oder unzufrieden zu werden.” (2)

Am Ende aller Wünsche erscheint ein Kunstgeschöpf, sei es der Homunculus, ein künstliches Menschlein, wie in Goethes Faust im Reagenzglas zusammengebraut oder die machina sapiens, im Anklang an den homo sapiens eine dem Menschen zumindest ebenbürtige Maschine. Die Planung zur Schöpfung irgendeiner Art von Homunculus fällt heute in den Bereich der Gentechnologie. Mit der Konstruktion einer intelligenten Maschine beschäftigt sich ein Teilbereich der KI (‘Künstliche Intelligenz’), die ‘Robotik’.

So weit möglich, sollen hier alle Aspekte der Thematik angesprochen werden.

Die Vorgeschichte

Gleich in welcher Religion, die ersten Hinweise auf sozusagen Prototypen symbolischer Roboter findet man in zahlreichen Schöpfungsmythen, in denen die Rede von der Erschaffung künstlicher Wesen ist. Eine Auswahl: Re, Sonnengott von Heliopolis und zugleich der höchste der ägyptischen Götter, brachte aus sich selbst heraus eine neue Göttergeneration hervor. Von Marduk, dem letzten in der Reihe der alten assyrisch-babylonischen Götter, wird überliefert, er habe aus dem Leichnam der erschlagenen Tiamat (das bedeutet Salzwasser, eine der beiden Urprinzipien Salzwasser-Süßwasser) den Leib des ersten Menschen erstellt. Prometheus (‘der, der voraussieht’). Gestalt der griechischen Mythologie, formte in einer Töpferei in Böotien die ersten Menschen und ließ ihnen von der Göttin Athene Leben einhauchen. Hephaistos, göttlicher Schmied, gestaltete auf Geheiß des Göttervaters Zeus die Schönheit Pandora (‘die, die alle Gaben hat’), die auf die Erde gesandt wurde mit einem verschlossenen Krug, der alle Übel für die Menschheit enthielt. Hephaistos schmiedete auch den bronzenen Riesen Talos, den Bewacher der Insel Kreta, der alle Eindringlinge tötete, indem er sie an seinen metallenen zum Weißglühen erhitzten Leib preßte. Aber nicht allein den Göttern sollte die Erschaffung künstlicher Wesen überlassen werden, auch der Mensch schickte sich an, eigene Kreationen zu erstellen. Aus überlieferten Sagen des Altertums kennt man die als Orakel dienenden Gliederpuppen der alten Ägypter, die beweglichen Statuen des Dädalus, die ‘fliegende hölzerne Taube’ des Archytas von Tarent oder die ‘kriechende Schnecke’ des Demetrius Phalereus. Aus dem Mittelalter ist die Geschichte um den ebenfalls sagenhaften künstlichen menschenähnlichen Diener von Albertus Magnus (etwa 1193-1280) bekannt. Dieses aus verschiedenen Materialien wie Metall, Holz, Glas und Leder zusammengesetzte Gebilde soll zur Verdutzung der Besucher ab und an die Tür geöffnet haben. Von Roger Bacon (1214-94) heißt es, er habe Jahre zugebracht, einen sprechenden Kopf herzustellen. René Descartes (1596-1650) besaß eine bewegliche und sprechende lebensgroße Puppe, die er seine “Tochter Francine” nannte.

Ausgewählte Daten zur Chronologie der Roboterentwicklung

1928 - Ein dem Menschen äußerlich nachempfundener Roboter namens Eric diente als Attraktion bei der Eröffnung einer Ausstellung der Model Engineer Society. Das Modell konnte sich mittels Batterie- und Elektromotorantrieb erheben, verbeugen und über einen Lautsprecher Worte ausgeben, die ihm drahtlos übermittelt wurden.

1932 - Auf der Londoner Funkausstellung erfreuten sich die Besucher an Alpha, einem Roboter, der in verschiedenen Sprachen die Zeit ansagen und aus mehreren Tageszeitungen vorlesen konnte (mittels vorher produzierter Tonbandaufnahmen).

1939 - Von der Westinghouse Corporation wurde für die Weltausstellung in New York ein Roboter präsentiert, der fähig war, 26 verschiedene Bewegungen auszuführen und auf einige über Mikrophon eingegebene Befehle zu reagieren.

1946 - G. C. Devol, ein amerikanischer Erfinder, entwarf ein Steuergerät, mit dem es möglich wurde, elektrische Signale magnetisch aufzuzeichnen. Später beschäftigte sich Devol mit dem “Programmierten Transport von Gegenständen”.

1952 - Das Massachusetts Institute of Technology stellte den Prototyp einer numerisch gesteuerten Maschine vor.

1954 - Der Brite Cyril Walter Kenward beantragte ein Patent für ein Robotergerät; 1957 wurde es erteilt.

1959 - Den ersten kommerziellen Roboter produzierte die Firma Planet Corporation; sein Steuerwerk funktionierte auf der Basis von Begrenzungsschaltern und Kurven scheiben.

1960 - Unimate wurde vorgeführt, ein nach Devols Entwurf (s. o.) gebauter Roboter. Ein Jahr später setzte man ein Gerät dieses Typs in der Ford Motor Company ein. Unimate war ein Produkt der Firma Unimation, der ersten Roboterfirma der Welt, 1958 von Joseph Engelberger gegründet.

1961 - ATP, eine Programmiersprache zur numerischen Steuerung von Werkzeugmaschinen wurde publiziert.

1968 - Am Standford Research Institute entwickelte man Shakey, einen mobilen Roboter, der mit zahlreichen Sensoren ausgerüstet war, u. a. mit einer Kamera zur Bilderkennung und einem Tastsensor.

1973 - Ebenfalls aus dem Standford Research Institute kam die erste textorientierte Roboter spräche, WA VE, auf die ein Jahr darauf die Sprache AL folgte; beide Sprachen wurden später in der Robotersprache VAL vereinigt, die zum kommerziellen Einsatz gedacht war.

1975 - Aus dem Haus Olivetti stammte einer der ersten Montageroboter: Sigma.

1978 - Der wohl bekannteste Industrieroboter, PUMA (Programable Universal Machine for Assembly), wurde von der Unimation Inc. ausgeliefert. Er stach durch sein geringes Gewicht (etwa 40 kg), seine einfache Programmierbarkeit und Flexibilität hervor. Die Belastbarkeitsgrenze des Roboterarmes lag bei 2 1/4 kg.

1980 - Mit Hilfe eines Bilderkennungssystems versetzten Wissenschaftler aus dem Forschungslabor der Universität von Rhode Island einen Roboter in die Lage, einfache Verteilungsaufgaben in der Lagerhaltung zu übernehmen.

1982 - IBM stellte zusammen mit ihrem Montageroboter RS-1 zugleich die zu seiner Programmierung notwendige Robotersprache AML vor.

1985 - Zur Erkundung des in 3800 Meter Tiefe liegenden Wracks der Titanic entwickelte das amerikanische Meeresforschungsinstitut in Woods Hole das Robotersystem Jason, ab das am 13.6.1986 zum ersten Mal eingesetzt wurde.

1985 - Die Einsatzgebiete der Roboter wachsen stetig, realisiert wurden u. a. Roboterlöschfahrzeuge in Chemiewerken, Arbeits- und Reparaturroboter in der Raumfahrt, ferngesteuerte Roboter, die Wartung, Kontrolle, Reinigungs- und Aufräumarbeiten in Atomkraftwerken ausführen usw.

Zugleich haben Roboter immer mehr Routineaufgaben in der Industrie übernommen: z. B. Schweißen, Bohren, Lackieren, Schmieden, Spritzen, Anstreichen, Montieren, Formen, Verlegen, Lagerverwalten.

Ende 1987 lag die Zahl der im Einsatz befindlichen Roboter in der BRD bei rund 15000, davon wurden 14500 in der Industrie, der Rest in der Forschung eingesetzt.

Die Vorstellung von einer “Fabrik der Zukunft”, in der Computer und Roboter vom Einkauf bis zur Auslieferung des Endproduktes alle Arbeiten regeln, gewinnt unter dem Stichwort CIM (Computer Integrated Manufacturing) an Kontur, zur gleichen Zeit wachsen die Probleme bei der Umsetzung. Bislang scheinen nur sogenannte Insellösungen machbar.

Im Musée d’Art et d'Histoire in Neuchâtel (Schweiz) kann man noch heute Puppen bewundern, die schreiben, zeichnen und musizieren können. Diese sich bewegenden Automaten wurden etwa um 1770 von schweizerischen Kunsthandwerkern gebaut. 32 Jahre zuvor, um 1738, hatte der brillante Erfinder Jaques de Vaucanson in der Pariser Akademie der Wissenschaft einen flötespielenden Automaten vorgestellt. Ein anderes Werk Vaucansons hat seine Zeitgenossen ebenfalls außerordentlich beeindruckt: eine künstliche Ente, die schwimmen, schnattern und watscheln konnte. Daneben war sie fähig, Körner aufzupicken, diese zu verdauen und die Reste auszuscheiden.

Ein besonderes Kapitel bilden die Automaten des Wolfgang von Kempelen (1734-1804). Seine 1788 konstruierte Sprechmaschine enthielt ein kunstvoll abgestimmtes Verbindungswerk aus Klavier, Blasebalg, Ventilen, Klappen, Stiften usw., das durch Spielen auf der Klaviatur die Stimme eines drei- bis vierjährigen Kindes imitieren konnte. Kempelens berühmter schachspielender Automat dagegen war eine Täuschung. Er bestand aus einem kastenförmigen Tisch, an dem eine in türkischer Tracht gekleidete Figur saß. Obwohl die Schachmaschine ein kompliziertes Räderwerk, zahlreiche Hebel und Drehzylinder aufwies, war in ihr noch genug Platz vorhanden, um einen kleinen Menschen aufzunehmen, der den Arm der schachspielenden Figur führte. Die Maschine gewann fast alle ausgetragenen Spiele, sie war jedesmal “getürkt”, denn - wie gesagt - verborgen in ihr saß ein kleinwüchsiger hochklassiger Schachspieler.

Abb. 1: Freiheitsgrade motorischer Bewegung

Hier möchte ich die Beschreibung früher Versuche, Automaten und roboterähnliche Maschinen herzustellen, beenden und die Intention, die hinter allen Ideen und Konstruktionen stand, mit den Worten des Julien Offray de la Mettrie (1709-51) aus seinem 1747/48 erschienenen Werk “L’homme machine” (“Der Mensch als Maschine”) darlegen:

“Man sieht: es gibt im ganzen Universum nur eine Substanz, und der Mensch ist ihre vollkommenste Form. Er ist dem Affen und den intelligenten Tieren das, was die Planetenuhr von Huygens gegenüber der Stundenuhr von Leroy ist. Wenn zur Anzeige der Planetenbewegungen mehr Einzelteile, Räder und Triebfedern notwendig waren als zur Anzeige bzw. Wiederholung der Stunden; wenn Vaucanson für die Herstellung seines Flötenspielers mehr Aufwand und Geschick aufbieten mußte als für seine Ente, dann müßte er sich für einen Sprecher eben noch mehr anstrengen (denn eine solche Maschine kann heute als Werk eines neuen Prometheus nicht mehr für unmöglich gehalten werden).” (3)

Noch einmal, die Argumentation lautet: Der Mensch ist eine Maschine, wenngleich eine äußerst komplizierte, nichtsdestoweniger wird es irgendwann möglich sein, diese Maschinerie nachzubauen. Im Sinne La Mettries propagierten über 200 Jahre später die Vertreter der KI ihre Ideen. So bezeichnete Marvin Minsky in den frühen sechziger Jahren das Gehirn als “meat machine”. Auch wenn es zwischenzeitlich etwas ruhiger wurde um die Roboter, einfach eine Folge der Schwierigkeiten, wirklich qualitativ dem Niveau der Vaucansonschen Apparate zu entkommen, offeriert doch gerade in allerjüngster Zeit Hans Moravec in seinem Buch “Mind Children: The Future of Robot and Human Intelligence” die Bilder einer künstlichen Intelligenz, die der menschlichen nicht nur ebenbürtig, sondern millionenfach überlegen sein wird.

Sehen wir uns im folgenden an, wie die modernen Roboter sich bewegen, welche Mechanismen eigentlich ihren Fähigkeiten zugrunde liegen, die so leichthin mit den menschlichen Sinnen verglichen werden.

Die Motorik

So gar nicht menschenähnlich sieht der typische Roboter aus. In der Mehrzahl aller Fälle müssen wir ihn uns als eine am Boden festinstallierte Maschine vorstellen, die aus einem eingeschränkt beweglichen Torso mit drehbarem Arm und vielfach einsetzbaren sogenannten Endeffektoren (Greiferhand oder andere spezielle Werkzeuge) besteht. Das gesamte Bewegungsrepertoire der Maschine umfaßt die Einzelbewegungen von Körper, Arm und Hand. In der Regel werden sowohl die Körper- und Armbewegungen als auch die des Endeffektors über jeweils drei Gelenke ausgeführt; einem einarmigen Roboter stehen demnach sechs ‘Freiheitsgrade’ der Bewegung zu. Angetrieben werden die kommerziell erhältlichen Industrieroboter zumeist hydraulisch oder elektrisch; möglich ist fernerhin ein pneumatischer Antrieb.

Neben Robotern, deren Armbewegungen über drei senkrecht aufeinanderstehende Schlitten (entsprechend der x-, y- und z-Achse) verlaufen (s. Abb. 1), also durch kartesische Koordinaten beschrieben werden können, kennt man Roboter mit zylindrischen, Polar- oder Kugelkoordinaten und Roboter mit Gelenkarmen. Aus der jeweiligen Bezeichnung der Koordinaten läßt sich auf den Arbeitsraum eines feststehenden Roboters schließen: das Arbeitsvolumen eines Roboters mit kartesischen Koordinaten umfaßt einen schachtelförmigen Raum, die übrigen Arbeitsvolumen lassen sich durch einen Zylinder, eine Kuppel oder eine Kugel charakterisieren. Auch ein Roboter mit Gelenkarmen agiert in einem kugelförmigen Arbeitsraum.

Im allgemeinen unterteilt man die einachsigen Gelenke, die sich zwischen zwei Gliedern befinden, in vier Klassen, in:

a) Rotationsgelenke - die Drehachse steht im rechten Winkel zu den beiden Gliedern: das Ausgangsglied wird abgeknickt,
b) Torsionsgelenke - die Drehachse bewegt sich parallel zu den Achsen der beiden Glieder: das Ausgangsglied wird gedreht,
c) Revolvergelenke - das Eingangslied ist parallel an die Gelenkachse angeschlossen, das Ausgangsglied im rechten Winkel: das Ausgangsglied wird geschwenkt,
d) Lineargelenke - die Glieder verschieben sich ineinander wie in einem Teleskop.

Die Auswahl an Endeffektoren ist relativ umfangreich. Eingesetzt werden neben mechanischen Greifern, die zum Aufnehmen eines Objektes meistens mit drei oder vier fingerähnlichen Backen ausgestattet sind, auch Saugköpfe, beispielsweise zum Heben von Glasplatten. Für die Handhabung eisenhaltiger Materialien benutzt man Magneten, bei leichten Stoffen wie Geweben kommen mit Klebstoff versehene Greifer zum Einsatz. Mit Schöpflöffeln können flüssige Materialien umgefüllt werden; Haken helfen beim Verladen von Containern, aufblasbare Vorrichtungen am Greifer dienen zum Fassen von Dosen. Zusätzlich lassen sich Werkzeuge anbringen zum Schweißen, Bohren, Fräsen, Bürsten, Schleifen usw. Ist es da verwunderlich, wenn Geoff Simons zu der Ansicht kommt, daß “Roboterhände offenkundig wesentlich vielfältiger als die Hände von Menschen und Affen sind”? (4)

Rechnet man die Verwendungsmöglichkeiten aller einsetzbaren Endeffektoren eines Roboters zusammen, so sind sie nicht einmal umfangreicher als die einer menschlichen Hand. Auch diese kann als Haken genutzt werden, es läßt sich mit ihr schöpfen, kratzen, schieben, heben, ziehen, beschriften, schlagen und vieles mehr, ausgestattet mit Werkzeugen dient sie zum Kleben, Schweißen, Bohren usw. Als Universalinstrument bleibt sie auf jeden Fall unschlagbar. Kein einzelner Endeffektor vermag alle Aufgaben der menschlichen Hand zu erfüllen. Während der Mensch mit seinen Armen Lasten heben oder stemmen kann, die das eigene Körpergewicht übersteigen, bewältigen im menschlichen Maßstab gebaute Roboter nur wenige Kilogramm Gewicht.

Ähnliches, die vielfache Nutzung eines Bewegungsapparats betreffend, gilt im großen und ganzen für die Fortbewegung. Die Möglichkeiten, einen Roboter fortzubewegen, können vielfältig sein (Räder, Rollen, Ketten, Vielfüßer), aber die Universalität der menschlichen Beine (gehen, laufen, springen, klettern, balancieren) erreicht bislang kein künstliches System. Auch nicht der Experimentalroboter Odex 1, obwohl er mit seinen sechs Beinen langsam über unebenes Gelände gehen, Treppen steigen und Podeste bis 60 cm Höhe erklimmen kann.

Trotz der Namensgleichheit bestehen, falls überhaupt, nur eingeschränkte Teilfunktionen kennzeichnende, prinzipielle Gemeinsamkeiten zwischen der Anatomie eines Roboters und der eines Menschen. So wie das Scharnier einer Tür nur zum Teil prinzipielle Ähnlichkeit mit dem Scharniergelenk des Mittelfingers oder Ellenbogens besitzt, so bescheiden nehmen sich Aufbau und Funktionsumfang eines Roboterarmes gegenüber dem menschlichen Arm aus. Biologische Gebilde bestehen eben nicht aus starr miteinander verbundenen Strukturen, sie sind flexibel, können sich den Umständen und Anforderungen anpassen - sie sind lernfähig. Den einachsigen Gelenken eines Roboters stehen eine Vielzahl natürlicher Gelenksysteme gegenüber, z.B. dreiachsige Kugelgelenke oder zweiachsige Sattelgelenke. Bewegt werden die von Knorpel überzogenen Gelenkkörper von einer Reihe verschiedenartiger, den jeweiligen Anforderungen entsprechend ausgebildeter Muskeln (spindelförmig, mehrköpfig, vielbäuchig, gefiedert, sehnig, ringförmig, sägeförmig oder platt).

Während eine Roboterhand einfache motorische und sensorische Handlungen zu erfüllen hat, beschränkt sich der Funktionsbereich der menschlichen Hand keineswegs nur auf diese Tätigkeiten. Sie erfüllt als Vielfachinstrument zugleich motorische, sensorische, kommunikative und emotionale Aufgaben. Die Hand kann Gegenstände bewegen, halten und erhalten, sie kann zerstören, streicheln und schlagen, Schmerz oder Temperatur empfinden, höchst sensibel tasten, sie kann Ärger oder Freude ausdrücken, in ihrer Sprache einladen oder abwehren, sie gehört zu uns, sie ist ein integrativer Teil des ganzen Körpers, ein Teil des Ichs. Auch Personen, denen eine Hand oder ein Arm amputiert wurde, behalten weiterhin ein Gefühl für das verlorene Körperteil (engl. phantom limb), es scheint ihnen, als sei es tatsächlich noch vorhanden. Man erklärt dies als gelerntes Körperschema (engl. body schema).

Daß zur Fortbewegung mehr gehört als nur die Krümmung irgendwelcher Gelenke, nämlich eine koordinierte Gesamtbewegung, die sich aus verschiedenen Einzelbewegungen zusammensetzt, mithin gesteuert werden muß, davon wird später noch die Rede sein.

Wenig Mühe bereitet es uns, mit der linken und rechten Zeigefingerspitze einen Bleistift an seinen beiden Enden anzufassen, ihn in die Höhe zu heben und zu rotieren, dabei gleichzeitig noch die Arme stufenlos in verschiedene Richtungen zu bewegen. Und je öfter wir diese Übung wiederholen, um so leichter fällt sie uns: wir haben dazugelernt; eine bislang unmögliche Aufgabe für einen Roboter (5). Wo liegen die Schwierigkeiten bei der Steuerung zweier Roboterarme? Greifen wir ein paar heraus: 1. Beide Armbewegungen müssen laufend koordiniert werden, das erfordert einen qualitativ anderen Aufwand als die Berechnung zweier unabhängiger Armbewegungen. Angemessen wären statt sequentieller Verarbeitung parallele Prozeßabläufe 2. Die ständige Kontrolle der Bewegungen hat in Echtzeit zu erfolgen, damit Korrekturen überhaupt sinnvoll ausgeführt werden können. 3. Um den Bleistift nicht zu zerbrechen bzw. die Tastsensoren nicht zu zerstören, muß der Druck auf die Bleistiftspitzen sensibel abgefragt und angemessen geregelt werden. 4. Die Positionsveränderung der Bleistiftspitzen verlangt eine exakte permanente Abstimmung über verschiedene Gelenkbewegungen. 5. Das planvolle Zusammenspiel von Motorik und Sensorik (Tastsensoren und optische Sensoren) kann nur über eine höchstkomplexe Steuerung erfolgen. 6. Schließlich muß der Roboter imstande sein, den Bewegungsverlauf zu lernen und zu optimieren. Alles in allem: zuviel verlangt für einen Roboter.

Die Sinne

Von den klassischen fünf Sinnen (Gesichts-, Gehör-, Geschmacks-, Geruch-und Tastsinn) haben nur die beiden ersten und der letzte größere Aufmerksamkeit beim Roboterbau gefunden. Ausnahmen bestätigen die Regel: So werden beim Automobilhersteller Austin-Morris Roboter eingesetzt, die mit Gas gefüllte Teile ‘abschnüffeln’, um Lecks, die auf undichte Schweißnähte hinweisen, zu erkennen. Auch diese Roboter gehören zur Mehrzahl aller Roboter, die in den Werkhallen der Industrie stehen, fest verankert in speziellen Arbeitszellen, in denen einfachste Routinearbeiten pausenlos ausgeführt werden müssen. Die Maschinen besitzen keine oder nur wenige Sensoren, um außerhalb ihrer Arbeitstätigkeit Informationen über die Außenwelt zu erhalten.

Sicherheitszonen, mit Barrieren und großen Warntafeln versehen, sind daher notwendig, um Unbefugte davon abzuhalten, den für sie gefährlichen Arbeitsbereich eines tätigen Roboters zu betreten. Nicht von ungefähr können sich Unfälle ereignen, die so gern mit einem geheimnisvollen Schleier umgeben werden, der suggeriert, die ‘mörderischen’ Maschinen lehnten sich gegen ihre Unterdrücker auf. Verstärkt wurde diese Art der Berichterstattung dadurch, daß die japanische Regierung 1987 eigens eine Untersuchungskommission bilden ließ, um die Ursachen der zehn Todesfälle zu klären, die sich in japanischen Fabriken in Zusammenhang mit Robotern ereignet hatten. International, wird geschätzt, lag die Zahl der Todesfälle bis 1987 bei 20. Eine, bezogen auf andere tödlich verlaufende Betriebsunfälle, vergleichsweise zu vernachlässigende Zahl. Die Gründe für die Unglücksfälle, glaubt man, liegen im menschlichen Fehlverhalten, falscher Programmierung oder resultieren aus den die Robotersteuerung verfälschenden elektromagnetischen Impulsen, die von anderen in der Werkhalle aufgestellten Maschinen herrühren können (6).

Natürliche Sinne künstlich nachzubilden, versucht man in der Wissenschaft mit Hilfe experimenteller Roboter. Dabei können die in absehbarer Zeit realisierbaren optischen, akustischen oder taktilen Sensoren nirgends ihren natürlichen Vorbildern Auge, Ohr und Haut in deren universeller Leistungsfähigkeit gerecht werden. Warum auch, wird argumentiert, vielleicht leisten die künstlichen Organe sogar mehr. Sicher nur in dem Sinn, in welchem ein Fernrohr oder ein Mikroskop mehr als ein Auge leistet. Aber das Auge ist keineswegs nur eine fleischliche Kamera oder ein separater vollständig beschreibbarer Sinnesapparat - Analoges gilt für die anderen Sinnesorgane. Der Verbund Auge-Gehirn (der lichtempfindliche Anteil des Auges hat sich aus dem Zwischenhirn gebildet) umfaßt die Funktionen von Kamera, Entwicklungs- und Vergrößerungsgerät in einem, und - jetzt versagen weitere Vergleichsmöglichkeiten zu künstlichen Apparaturen - das Auge-Gehirn ist gleichfalls Interpretations-, Erkenntnis- und Empfindungsorgan, von dem man bis heute noch nicht alle Funktionsvorgänge vollständig erkannt bzw. verstanden hat.

Schauen wir uns die in der Robotertechnik eingesetzten Sensoren an, finden wir im Bereich der taktilen Sensorik Dehnungsmeßeinrichtungen, preßluft- oder hydraulisch betriebene Druckumformer und elektrische Berührungskontakte. Dazu kommen weniger gebräuchliche Methoden wie Ultraschall oder magnetische Induktion. Menschliches Tastempfinden beruht auf einer Mischung aus Hautsinn (Druck-, Kälte-, Wärme- und Schmerzempfindung) und kinästhetischem Empfinden (Bewegungs- und Körperlageempfindung), wobei der kinästhetische Sinn allgemein der Exploration und insbesondere der Erfassung größerer Konturen eines zu untersuchenden Gegenstandes dient. Tastsensoren in der Robotik klammem die kinästhetischen Anteile aus. Industrielle Systeme nutzen als Druck- oder Berührungsmesser einfache Membrane, die sich aus vielen elastischen Polymerisationselementen zusammensetzen. Jeder Druck auf ein Element verändert proportional zur eingesetzten Kraft den elektrischen Widerstand des Einzelteiles; die Informationen über die Widerstands werte aller Elemente gibt einen groben Aufschluß über die Form des druckausübenden Gegenstandes.

Relativ komplexe Sensoren werden ausschließlich in wissenschaftlichen Laboratorien entwickelt. Am Massachusetts Institute of Technology hat man einen Sensor auf der Basis von Fiberglasstäben hergestellt. Aus einer Lichtquelle werden Strahlen durch ein Bündel von Fiberglasstäben auf eine elastische spiegelnde Oberfläche geschickt, das reflektierte Licht gelangt durch andere Fiberglasstäbe zu einer Kamera, deren Signale digitalisiert und von einem Computer verarbeitet werden. Jede Deformation der elastischen Fläche hat Einfluß auf das Lichtbild der Kamera und damit auf die Informationen im Computer, aus deren Änderungen auf den einwirkenden Gegenstand geschlossen werden kann.

Ein Forscherteam an der Universität von Pisa arbeitet seit Jahren an einem hautähnlichen Sensor. Als Grundmaterial benutzen sie eine extrem dünne Folie aus PVDF (Polyvinylidene di-Fluoride), ein piezoelektrisches Material, das beim Zusammenpressen oder Erhitzen eine elektrische Ausgangsspannung erzeugt. Ziel ist es, nicht allein Daten über Druck und Temperatur eines Wirkungsgegenstandes zu erhalten, sondern obendrein Informationen über Kanten, Unebenheiten und die Rauhheit seiner Oberfläche zu gewinnen (7).

In einen anderen Bereich fallen ‘muskelelektrische Hände’, das sind Prothesen, die ihre Steuersignale direkt aus den Nerven der Muskeln des unbeschädigten Armstumpfes erhalten und über Stellmotoren die verlangten Handbewegungen ausführen.

Aufgrund der ungelösten Frage, wie in dem Lärm einer Fabrikhalle sinnvolle akustische Signale, abgehoben von Hintergrundgeräuschen, überhaupt erkannt werden können, hat man in der Industrie auf den Einsatz akustischer Sensoren weitgehendst verzichtet.

Ansonsten bereiten die technischen Gegebenheiten bei der Aufnahme akustischer Signale über Mikrophone keine Schwierigkeiten, im optischen Bereich indessen gibt es einige Hardwareprobleme. Allerdings nicht mit der Digitalisierung der durch eine Kamera gelieferten analogen Bildinformationen. Der kritische Punkt liegt vielmehr darin, daß die Videotechnik auf die Fähigkeit des menschlichen Auges ausgerichtet ist, das ohne weiteres mit räumlichen und die Lichtintensität betreffenden Unschärfen zurechtkommt, ganz im Gegensatz zur maschinellen Verarbeitung optischer Signale.

Möglicherweise bietet die Lasertechnologie einen Ausweg, zumindest für bestimmte Bereiche in der Industrie, unter anderem bei der Bearbeitung von Werkstücken. So erprobt Siemens in seinen Laboratorien Lasersensoren, mit denen ein Roboter Objekte in der Fläche und zudem im Raum einordnen kann.

Stärker als bei den künstlichen Tastsensoren muß bei der Verarbeitung optischer oder auditiver Signale zwischen dem Erkennen der Signale einerseits und dem Verstehen der ihr innewohnenden Informationen andererseits unterschieden werden. Es reicht eben nicht aus, nur Signale aufzunehmen oder ihre Quelle zu orten. Für komplexe Aufgaben ist es notwendig, die Informationen mit einem gespeicherten Wissen zu vergleichen, will man zusätzlich ihren Sinngehalt erfassen. Ein Ansatz, unternommen an der TU München, besteht darin, das Verstehen auf abstrakte Reiz-Reaktions-Schemata zu reduzieren und diese wiederum mit der Arbeitsweise der Grundelemente des Gehirns, den Neuronen, gleichzusetzen. Ein so definiertes Netzwerk wird daraufhin in das mathematische Modell eines Assoziativspeichers gepreßt, und man erhält am Ende in der Tat “ein Gehirn für Roboter”. Ein simples PASCAL-Programm, als ‘neuronales Netzwerk' bezeichnet, genügt in der Folge, um die Hand-Auge-Koordination zu simulieren, allerdings “unbiologisch”, wie die Forscher selbst zugeben (8).

Fähig zur Spracherkenntnis nennt man einen Roboter, der aus einer Folge von ins Mikrophon gesprochenen Sätzen bestimmte Worte herausfiltern kann. Sprachverständnis heißt, darüber hinaus den Bedeutungsgehalt der aufgenommenen Wörter zu verstehen. Ein Stimmerkennungssystem der Carnegie Mellon Universität kann etwa 1000 verschiedene Wörter handhaben. Mit der Spracherkennung und dem Sprachverstehen beschäftigt sich ein Teil der KI, der unter dem Begriff Natural-Language Processing (Natürlichsprachliche Systeme) firmiert. Ziel ist die Kommunikation mit einem Computer oder Roboter in natürlicher Sprache.

Auch wenn Rich Malloy und Jane Morrill Tazelaar glauben, daß die ‘Natürlichsprachliche Verarbeitung’, die sie bislang dem Bereich der Science-Fiktion zurechneten, durch neue Technologien (schnelle Parallelrechner mit hoher Speicherkapazität) und neue Software (Konnektionismus, neurale Netzwerke) nun endlich realisierbar wäre (9), gilt doch immer noch die Bewertung eines der hervorragenden Mitarbeiter bei der Sprachverarbeitung in der KI. dem Schöpfer des Programms SHRDLU, Terry Winograd: “Die Beschränkungen, denen die Formalisierung der kontextabhängigen Bedeutung unterworfen ist, machen es gegenwärtig -und vielleicht für immer - unmöglich, Computerprogramme zu entwickeln, die das menschliche Sprachverständnis imitieren können" (10)

Programmierung eines Roboters

Die häufigste Art, einen Roboter zu programmieren, geschieht durch unmittelbares Beispiellernen. Zu diesem Zweck führt man Arm und Effektor des Roboters in kleinsten Bewegungen entlang der zukünftig auszuführenden Handlungsbahn und speichert alle eingenommenen Positionen und Ausführungen des Effektors ab. Dabei kommen zwei Methoden zum Tragen: Entweder ein Operator bewegt den Roboterarm per Hand durch die gewünschte Operationsfolge, oder der Roboter wird über ein Steuerpult schrittweise in die vorgesehenen Stellungen gefahren. Da immer nur Zwischenpunkte einer Bewegungsbahn bestimmt werden können, besitzen die meisten Steuereinrichtungen für Roboter Interpolationsmöglichkeiten.

Es dürfte einsichtig sein, daß sich diese Art der Programmierung nur dann anbietet, wenn immer die gleiche Bewegungsabfolge durchlaufen werden soll. Will man dagegen sich oft ändernde oder unbestimmte Tätigkeiten ausführen lassen, benutzt man Roboter, die mittels einer Programmiersprache gelenkt werden können. Auf die erste textorientierte Robotersprache Wave, 1973 am Standford Artificial Intelligence Laboratory entwickelt, folgte ein Jahr später die Kommandosprache AL. Elemente beider Sprachen finden sich in VAL wieder, einer Sprache, die bei den Robotern der Firma Unimations eingesetzt wird. AML, eine Programmiersprache für die Fertigung, stammt von IBM.

Grundlegend unterscheiden sich Robotersprachen von den ‘gewöhnlichen’ Computersprachen durch Programmierbefehle für die Steuerung von Bewegung, Effektoren und Sensoren. Dies sind u. a. die Befehle:

MOVE - bewegt den Effektor; z. B. von der gegenwärtigen Position zum Punkt A über (VIA) Punkt B.MOVEA VIA B
APPRO - bringt den Effektor in die Nähe eines Punktes; im Beispiel beträgt der Näherungs abstand 10 Einheiten in negativer Richtung der z-Achse: APPRO A, 10
DEPART - entfernt den Effektor (Komplementärbefehl zu APPRO)
SPEED - bestimmt die Geschwindigkeit, mit der sich der Roboterarm bewegt; z. B. in cm/s: SPEED 75 CMS
HERE - speichert die augenblickliche Position (die Koordinaten von x-, y- und z-Achse) als Verbunds. B. in der Variablen A: HERE A
OPEN - öffnet den Greifer
CLOSE - schließt den Greifer; z.B. bis auf 20 mm: CLOSE 20 MM
CENTER - schließt den Greifer langsam, bis ein Sensor Kontakt mit dem zu fassenden Gegenstand bekommt
REACT - überwacht ständig einlaufende Signale und antwortet auf Änderungen; z. B. wird die Eingangszeile 10 kontrolliert, bei einem Wechsel des Eingangspegels verzweigt das Programm in die Unterroutine Achtung': REACT 10, ACHTUNG

Vom Orientieren

Ohne Umschweife führen die Probleme der Programmierung von Sprachverständnisprozessen direkt zum Problemkreis Denken und damit zur Analogie Computer-Gehirn. Aber das ist ein anderes, weit gefaßtes Thema, auf das hier nicht näher eingegangen werden soll. Wen es interessiert, den möchte ich auf mein Buch “Gehirn, Sprache und Computer” verweisen.

Bleiben wir bei einer anderen zentralen Aufgabe der Robotik: dem Erkennen der Umgebung eines Roboters und seiner Orientierung darin. Offensichtlicher als beim Tastsinn wird die elementare Verbindung Sinnesorgan-Gehirn bei der Erfassung auditiver und optischer Signale. Was nutzt einem Roboter der feinste Sensor, wenn er dessen Daten nicht interpretieren kann? Zu jeder wirklichen Interpretation muß ein Weltbild gehören, in welches die Informationen sinnvoll eingeordnet werden.

Es geht also zunächst darum, einen Roboter den Weg zwischen Ausgangspunkt und Ziel finden zu lassen, ohne daß er dabei aneckt, in Sackgassen landet oder orientierungslos herumirrt. Notwendigerweise muß er auf Informationen über die Außenwelt zurückgreifen oder aber sich diese Daten verschaffen können. Ist daher die Frage, ob eine solche Maschine ein Weltbild besitzt, unangebracht?

Nehmen wir als Beispiel ALI (Autofahrer-Leit- und Informationssystem): ein im Auto eingebautes Gerät, das über Display und mit einer synthetischen Stimme einen Fahrer auf wenige Meter genau an jeden Zielort in einer bestimmten Region führt. Haben diese Systeme nicht per Definition ein Weltbild? Immerhin enthalten kommerzielle und militärische Navigationsprogramme umfangreiche geographische Daten. Inzwischen wird mit Hochdruck an einer äußerst präzisen Koordinationsbestimmung eines gefühlten Objekts über Satelliten gearbeitet. In den USA lassen Fuhrunternehmer ihre Transporter bereits über Satelliten lenken, und in Europa soll Navstar, ein globales Positionierungssystem, wenn es fertig ausgebaut ist, mit 18 Satelliten Zusammenarbeiten, die zu jedem Zeitpunkt an jedem Ort der Erde eine Position bis auf eine Abweichung von zehn Metern bestimmen (11). Obwohl die Welt quasi kartographiert im Computerspeicher abgelegt ist, billigen wir dem Rechner trotzdem kein Weltbild zu -genausowenig wie einem Atlas.

Was aber, wenn sich ein Roboter autonom bewegt und sich seine Daten über die Außenwelt selbständig erarbeitet, ohne Führung durch Funkortung, magnetische oder speziell konstruierte optische Marken?

Begleiten wir dazu HERMIES /I, einen kleinen beweglichen Roboter des Oak Ridge National Laboratory, bei Erkundungsgängen (12). Seine Schöpfer haben, bevor sie ihn auf die Reise schickten, in der Geschichte nachgeschaut, welche klassischen Methoden der Navigation es gegeben hat. Fündig geworden sind sie bei Ferdinand Magellan (Magalhaes), Christoph Kolumbus und der griechischen Sagengestalt Odysseus.

Der portugiesische Seefahrer Magellan (1480-1521), der mit der ersten (beinahe) Weltumsegelung zugleich den Beweis für die Kugelgestalt der Erde erbrachte, steht als Symbol für eine Erkundung, die auf kartographische Daten zurückgreifend, den besten Weg zu einem Ziel findet. Im Gegensatz dazu hatte der Genuese Christoph Kolumbus (1451-1506), der Entdecker Amerikas, nur ungefähre Vorstellung vom Ziel und vom Weg dorthin. Die Irrfahrten des Odysseus schließlich sollen stellvertretend die Erforschung einer sich ständig ändernden Welt kennzeichnen.

Versehen mit Sonarsensoren auf einem zweirädrigen Chassis hat HERMIES Navigationsaufgaben in allen drei Bereichen zu lösen. Im Roboter selbst befinden sich ein Z8 Mikroprozessor, zuständig für die Armbewegungen und ein IBM PC. der die restlichen Funktionen (Antrieb, Sensorbewegungen) kontrolliert. Die Navigationsberechnungen werden allerdings außerhalb des Roboters in einer über eine Funkverbindung angeschlossenen LISP-Maschine durchgeführt. Von ihr werden auch die Befehle (als FORTH-Komman-dos) zur Steuerung des Roboters gegeben.

Isaac Asimovs “Drei Gesetze der Robotik”

  1. Ein Roboter darf keinen Menschen verletzen oder es durch Tatenlosigkeit zulassen, daß ein Mensch verletzt wird.

  2. Ein Roboter muß den Anweisungen gehorchen, die ihm von einem Menschen erteilt werden, es sei denn, diese Anweisungen stehen im Widerspruch zu dem ersten Gesetz.

  3. Ein Roboter muß seine eigene Existenz schützen, es sei denn, ein solcher Schutz widerspricht dem ersten und zweiten Gesetz.

Der Faden der Ariadne

Kurz erzählt: Ariadne, die Tochter des Königs Minos von Kreta, verliebte sich in den Helden Theseus, der nach Kreta kam, um den Minotaurus, halb Mensch halb Stier, zu töten. Gefangen gehalten in einem unterirdischen Labyrinth, verschlang er jedes Jahr sieben junge Männer und sieben Jungfrauen, die Athen dem kretischen König als Tribut zollen mußte und die dieser als Opfergabe in das Gewirr der Gänge hineinschickte. Damit ihr Geliebter nach dem Kampf nicht elendig verloren im Labyrinth herumirrte, gab Ariadne ihrem Theseus ein Garnknäuel zum Abspulen mit. Und erst dadurch gelang es ihm, nach der Tötung des Minotaurus wieder das Tageslicht zu erblicken.

Der künstliche Theseus, der im nachfolgenden LOGO-Programm auf die Reise in ein Labyrinth geschickt wird, braucht keinen Kampf zu bestehen, aber er muß einen Faden legen, um den Rückweg zu finden und sich nicht in Sackgassen totzulaufen. Wie? Mittels eines rekursiven Verfahrens, das man Backtracking nennt (15).

Im Unterprogramm LABYRINTH wird ein Labyrinth gezeichnet und gleichzeitig die Koordinaten der Wände festgehalten, wobei der Ausgangspunkt und die Position des Minotaurus (der Endpunkt der Suche) bereits bestimmt werden. Anschließend beginnt im Unterprogramm SUCHEN die Erkundung durch den Theseus-Roboter. Zunächst prüft er, ob die Position links von seiner augenblicklichen Lage frei ist. Wenn ja, bewegt er sich eine Einheit in diese Richtung. Wenn nein, probiert er den geraden Weg aus, und wenn dieser durch eine Wand gesperrt ist. versucht er nach rechts weiterzukommen. Landet der Roboter in einer Sackgasse, d. h. alle drei Richtungen sind versperrt, muß sich der künstliche Theseus an dem bisher ausgelegten elektronischen Faden (rekursiv) zurückhangeln. Das gleiche tut er, wenn er sein Ziel, den Minotaurus, gefunden hat.

Gestartet wird das Programm mit THESEUS’.

Abb. 2: Graphik des LOGO-Programms THESEUS'

Relativ einfach geht die Magellansche Navigation vonstatten. Die Koordinaten aller Fremdobjekte sowie des Ziels sind ja bereits im Computer eingespeichert. Wenn keine direkte Verbindung vom Start zum Ziel möglich ist, weil Hindernisse dazwischen liegen, muß der Roboter einen anderen als den geradlinigen Weg finden. Das Problem läßt sich mit verschiedenen Suchalgorithmen lösen. Zum Beispiel werden die bekannten Umrisse der auf dem Weg liegenden Objekte proportional ihrer Form vergrößert (dabei werden die Größe des Roboters und eventuelle Unsicherheiten bei der Positionsbestimmung berücksichtigt). Dann, in Richtung Ziel, zieht das Programm eine hypothetische Linie vom Standpunkt des Roboters zur nächstliegenden Ecke eines Objekts. Von dort wird wieder die nächste Verbindung zum Ziel gesucht; versperrt ein anderes Objekt den Weg, verlängert sich die begonnene Linie nach dem gleichen Muster, bis sie endlich das Ziel erreicht. Anschließend manövriert der Roboter entlang der errechneten Linie zum Endpunkt (vgl. Kasten ‘Der Faden der Ariadne’).

Wichtig innerhalb der Kolumbus-Navigation ist das Erkennen von Hindernissen und zugleich ihre Markierung in einer durch Sensoren erstellten Karte der Außenwelt. Dabei können bei der Abstandsbestimmung durch reflektierte Schallwellen eine Reihe von Fehlern auftreten, z. B. durch Mehrfachreflexionen, Nichterkennen von Ecken. Meßwertbeeinflussung durch Temperaturänderungen oder unterschiedliche Absorbationsfähigkeit der Oberfläche von Hindemismaterialien. Sollte es nach mehreren Erkundungsfahrten gelingen, eine einigermaßen genaue Karte zu erstellen, kann beim nächsten Durchgang auf die Magellansche Navigation umgestellt werden.

Noch komplizierter ist die autonome Erkundungsfahrt eines Roboters nach der Odysseus-Methode. Für den Menschen hingegen eine alltägliche Praxis, die jeder Verkehrsteilnehmer kennt und zumeist problemlos bewältigt, obwohl sich die Verkehrssituation, in der er sich befindet, unablässig verändert, weil dauernd Objekte (z.B. andere Autos) aus dem Blickfeld verschwinden und zugleich neue plötzlich auftauchen können. Bei dieser Erkundungsmethode bündeln sich sämtliche Probleme der Roboternavigation.

Überdeutlich treten vor allem die langen Rechenzeiten in den Vordergrund, die eine sinnvolle realistische Exploration in Echtzeit unmöglich machen. Im Mittelpunkt zukünftiger Entwicklungen soll daher die Nutzung von Parallelrechnern und größeren Datenbasen mit Hintergrundwissen, der Einbezug von Expertensystemen und der Einsatz effizienter Algorithmen zur Abschätzung von Unsicherheiten stehen.

Zurück zum Weltbild: Eine Puppe, die künstliche Tränen vergießt, ist nicht traurig. Und ein Roboter, der sich bewegt, weiß nicht, was er tut, schon gar nicht besitzt er ein Weltbild: “Eine Menge von zusammenhängenden Fakten kann ein Universum, einen Bereich oder eine Gruppe bilden, aber es bildet keine Welt, denn eine Welt ist ein organisiertes Ganzes von Objekten, Zwecken, Fertigkeiten und Gebräuchen, innerhalb dessen menschliches Handeln eine Bedeutung hat oder einen Sinn ergibt." (13) Ein Bild der Welt kann nur im Erleben gewonnen werden.

Die Zukunft

Eines ist sicher: Die Roboter werden kommen. Längst sind sie aus der Fiktion herausgetreten, haben ihren Platz in der Realität eingenommen. Die in den Laboratorien gerade erprobte dritte Robotergeneration soll mobil und autonom sein. Nach einer Studie der Waseda Universität (Tokio) liegen die zukünftigen Einsatzgebiete (für Japan) in der Landwirtschaft beim Düngerstreuen, Emteabtransport, bei der Stallsäuberung, Eikontrolle und -Verpackung, in der Industrie beim Überwachen von Erdgasleitungen und Öltanks, in der Medizin bei der Krankenpflege, im Katastrophenschutz bei der Feuerbekämpfung, in der Abfallbeseitigung beim Müllsortieren, Mülleinsammeln und Tankreinigen und im Dienstleistungsbereich z.B. beim Einräumen von Büchern. Schon heute gelten Roboter in der Weltraumfahrt als unentbehrlich. Trotz allem: Sie sind und bleiben Maschinen. Wenn sie sehen, dann sehen sie nicht, wenn sie hören, dann hören sie nicht, und wenn sie denken, dann denken sie nicht. Die machina sapiens bleibt ein Phantasieprodukt der Science-Fiction-Literatur.

Oder müssen wir Hans Moravec glauben, dem Direktor des Mobile Robot Laboratory an der Carnegie Mellon Universität? In 40 Jahren, prophezeit er, haben Computer die Denkkapazität des menschlichen Gehirns erreicht. Und mit rasender Geschwindigkeit wird sich diese Entwicklung fortsetzen bis hin zu genetisch zusammengesetzten Protein-Robotern, die ihrerseits künstliche Gehirne erschaffen, die dem menschlichen in Potenzen überlegen sein werden. Unsere Gattung wird ausgedient haben, und “diese neuen Kreaturen, die ganz anders aussehen als die Maschinen, die wir kennen, werden ins Weltall aufbrechen, uns in einer Wolke von Staub zurücklassend." (14)

Tröstlich (?) nur, daß diese Supermaschinen nicht gegen alles gefeit sein werden, denn schließlich, gibt Moravec zu bedenken, vermehren und vervollständigen sich auch Computerviren biotechnisch.

Vielleicht behält Mephistopheles zuletzt recht, den Goethe im Faust II sagen läßt:

“Am Ende hängen wir doch ab Von Kreaturen, die wir machten."

Dr. A. Ebeling

Hinweise:

Wer sich eher für die technischen Aspekte der Robotik (mit Schwerpunkt Industrieroboter) interessiert, den möchte ich aufmerksam machen auf das Buch von Groover, M. P. u. a. (1987): "Robotik umfassend" , erschienen im Verlag McGraw-Hill. Von Brian Morris stammt ein reich bebildertes Buch über Roboter ("Die Welt der Roboter", Umschau Verlag 1986), das viele Photos aus bekannten Science-Fiction-Filmen enthält. Alle, die mit Robotern spielen möchten, sollten sich den Testbericht über 'Robokit' in der 'ST Computer' vom März 1989 (S. 54-57) ansehen.

Literatur:

(1) Niedermayr, E.: Roth, N.: "Robotics - Flexible Konzepte zur Fertigungsautomatik", in: Chip Plus, 6.6.87, S. 18

(2) Asimov, I.: “Veränderung! 71 Aspekte der Zukunft", Heyne, München 1983, S. 83

(3) La Mettrie, J. O. de: "Der Mensch als Maschine", LSR-Verlag, Nürnberg 1988, S. 83

(4) Simons, G.: "Sind Computer lebendig?". Harnack 1984, S. 103

(5) Hawker, J. S. u. a.: “Multiple Robotic Manipulators", in: Byte 1986/1, S. 203-219

(6) Die Tageszeitung, 22.5.87, Titelseite

(7) Pennywitt, K. "Robotic Tactile Sensing”, in: Byte 1986/1, S. 177-200

(8) Ritter, H.: Martinez, T.: Schulten K.: “Ein Gehirn für Roboter", in: mc 1989/2, S. 48-61

(9) Malloy, R., Tazelaar, J. M.: "Introduction. Natural Language", in: Byte 1987/12, S. 224

(10) Winograd, T.: "Software für Sprachverarbeitung", in: Spektrum der Wissenschaft, Sonderheft "Computer-Software", 1985, S. 59

(11) Stegers, W.: "Wie Copilot Computer die besten und schnellsten Routen findet", in: P.M. Magazin 1989/5, S. 104-113

(12) Jorgensen, C: Hamei W.: Weisbin,C.: "Autonomous Robot Navigation", in: Byte 1986/1, S. 223-235.

(13) Dreyfus, H.L.: "Die Grenzen künstlicher Intelligenz", Athenäum, Königstein 1985, S. 275-276

(14) Moravec, H.: "Mind Children. The Future of Robot and Human Intelligence", Harvard University Press, Cambridge 1988. Hier zitiert aus Byte 1989/4, S. 52

(15) Eine Backtracking-Urfassung (in BASIC geschrieben) findet man in: Chip 1980/6, S. 66-69


TO THESEUS SETPAN [70 50] MAKE "WEG [] MAKE "P [] MAKE "S 20 MAKE "LINKS [PRINT [LINKS FREI] LT 90 FD :S] MAKE "GERADE [PRINT [GERADEAUS FREI] FD :S] MAKE "RECHTS [PRINT [RECHTS FREI] RT 90 FD :S] ; ZL = ZURÜCK LINKS ZR = ZURÜCK RECHTS MAKE "ZL [BK :S RT 90] MAKE "ZR [BK :S LT 90] MAKE "WL "WAND# LINKS MAKE "WG "WAND# GERADEAUS MAKE "WR "WAND# RECHTS LABYRINTH SUCHEN END TO SUCHEN MAKE "I 0 LABEL "VON_VORN MAKE "I :I + 1 ;ERREICHBARE ORTE IN 4 HIMMELSRICHTUNGEN UM DIE AKTUELLE POSITION MAKE "K1 (LIST XCOR YCOR + 10) MAKE "K2 (LIST XCOR + 10 YCOR) MAKE "K3 (LIST XCOR YCOR - 10) MAKE "K4 (LIST XCOR - 10 YCOR) IF HEADING = 0 [IF :I = 1 [ORT :K4] [IF :I = 2 [ORT :K1] [ORT :K2]]] IF HEADING = 90 [IF :I = 1 [ORT :K1] [IF :I = 2 [ORT :K2] [ORT :K3]]] IF HEADING = 180 [IF :I = 1 [ORT :K2] [IF :I = 2 [ORT :K3] [ORT :K4]]] IF HEADING = 270 [IF :I = 1 [ORT :K3] [IF :I = 2 [ORT :K4] [ORT :K1]]] IF :WAND =1 [GO "SACKGASSE] IF :I = 1 [RUN :LINKS] [IF :I = 2 [RUN :GERADE] [RUN :RECHTS]] MAKE "WEG LPUT :I :WEG IF POS = :MINOTAURUS [PRINT [MINOTAURUS GEFUNDEN] ARIADNE] SUCHEN PE PRINT "ZURÜCK IF LAST :WEG = 1 [RUN :ZL] [IF LAST :WEG = 2 [BK :S] [RUN :ZR]] PX MAKE "I LAST :WEG MAKE "WEG BUTLAST :WEG LABEL "SACKGASSE IF :I = 3 [STOP] GO "VON_VORN END TO ORT :K IF MEMBERP :K :P [MAKE "WAND 1] [MAKE "WAND 0] IF :WAND = 1 [IF :I = 1 [PR :WL] [IF :I = 2 [PR :WG] [(PR :WR]]] END TO LABYRINTH CS MAKE "START [50 10] MAKE "MINOTAURUS [170 30] ; URSPRUNG (0/0) = LINKE UNTERE ECKE ; ZEILEN VON UNTEN NACH OBEN (BEGINN 0/0) ; ZEICHENRICHTUNG: (R = 1) = HORIZONTAL SETHEADING 90 MAKE "R 1 MAKE "X0 :S / 2 MAKE "Y0 0 STRICH 2 LEER 1 STRICH 6 DREH LEER 1 STRICH 1 LEER 2 STRICH 1 LEER 2 STRICH 1 LEER 1 DREH LEER 1 STRICH 2 LEER 2 STRICH 2 LEER 1 STRICH 1 DREH LEER 1 STRICH 3 LEER 2 STRICH 2 LEER 1 DREH LEER 1 STRICH 2 LEER 2 STRICH 2 LEER 2 DREH LEER 2 STRICH 1 LEER 1 STRICH 3 LEER 1 STRICH 1 DREH LEER 3 STRICH 5 LEER 1 DREH STRICH 9 ; SPALTEN VON LINKS NACH RECHTS (BEGINN 0/0) ; ZEICHENRICHTUNG: (R = 2) = VERTIKAL PU HOME PD MAKE "R 2 MAKE "X0 0 MAKE "YO :S / 2 STRICH 7 DREH LEER 4 STRICH 2 LEER 1 DREH STRICH 1 LEER 4 STRICH 2 DREH STRICH 2 LEER 2 STRICH 1 LEER 2 DREH LEER 1 STRICH 4 LEER 2 DREH STRICH 1 LEER 1 STRICH 2 LEER 3 DREH STRICH 2 LEER 5 DREH LEER 7 DREH LEER 1 STRICH 1 LEER 1 STRICH 3 LEER 1 DREH STRICH 7 PU SETPOS :MINOTAURUS PD TT "M PU SETPOS :START PD TT "S END TO STRICH :X REPEAT :X [MAKE "P LPUT (SE XCOR + :X0 YCOR + :Y0) :P FD :S] END TO LEER :X PU FD :X * :S PD END TO DREH IF :R = 1 [MAKE "POS (SE 0 YCOR + :S)] [MAKE "POS (SE XCOR + :S 0)] PU SETPOS :POS PD END TO ARIADNE PRINT [AN ARIADNES FADEN GEHT' S ZURÜCK] MAKE "ANZAHL COUNT :WEG PE FADEN :ANZAHL PX PRINT "GESCHAFFT THROW "TOPLEVEL END TO FADEN :X LOCAL "I IF :X = 0 [STOP] MAKE "I ITEM :X :WEG IF :I = 1 [RUN :ZL] [IF :I = 2 [BK :S] [RUN : ZR]] FADEN :X - 1 END


Links

Copyright-Bestimmungen: siehe Über diese Seite