Lichtschnitte durchs Chaos: ATARI ST(E) bei der „Angewandten Optik“

Chaos. Eine Momentaufnahme des Systems im chaotischen Zustand. Wenige Sekunden später sieht das Bild anders, aber doch ähnlich aus.

Als die Gruppe von Prof. Häusler (Angewandte Optik am Physikalischen Institut der Friedrich-Alexander-Universität Erlangen-Nürnberg) vor ca. 6 Jahren ihre ersten STs in Betrieb nahm, ahnte noch niemand, daß sie sich bald als völlig unverzichtbar herausstellen würden.

Abgesehen von der täglichen Schreibtischarbeit, sind die STs praktisch in jedem Labor zu finden. Das Spektrum der Anwendungen reicht vom Einsatz als Steuerrechner über Auswertung von Meßergebnissen bis hin zu relativ aufwendigen Simulationen.

Chaos

Unser Forschungsgebiet mit den vielleicht ansprechendsten Ergebnissen ist die nichtlineare Dynamik. Schlagworte wie Chaos, Strukturbildung, Fraktale und Neuronale Netze fallen in dieses Gebiet. Im allgemeinen geht es hierbei um die nichtlineare Wechselwirkung von Komponenten in hochdimensionalen Systemen [1], Unsere Atmosphäre ist zum Beispiel ein solches System. Die verschiedensten Einflüsse (Sonneneinstrahlung, Luftfeuchtigkeit, Meeresströmungen und viele andere) wirken auf komplizierte Weise zusammen und bestimmen, ob es morgen regnet oder nicht. Wie schwierig es ist, solche komplexen Systeme zu verstehen, wird einem klar, wenn man beim Picknick von einem Regenschauer überrascht wird, obwohl der Wetterbericht strahlenden Sonnenschein versprochen hat. Einfacher als das Wetter sind Modellsysteme, die sich auf das Wesentliche nichtlinearer Systeme beschränken.

Optische Rückkopplung

Ein relativ einfaches Modell ist der optische Rückkopplungskreis, in dem eine Kamera ihren eigenen Monitor sieht. Dabei kann die Helligkeit jedes Bildpunktes als eine Variable des Systems aufgefaßt werden. Durch die immer leicht unscharfe Abbildung mit der Kamera kommt es zur Wechselwirkung nebeneinanderliegender Pixel. Wenn das Bild, das die Kamera aufnimmt, unverändert zum Monitor übertragen wird, ergibt die Rückkopplung keine interessanten Ergebnisse (wovon sich jeder Besitzer einer Videokamera überzeugen kann). Erst wenn eine Nichtlinearität (z.B. eine Falschfarbendarstellung mit Hilfe eines Computers) eingebaut wird, ergeben sich die typischen Effekte, die wir untersuchen: Chaos und Strukturbildung [2].

Der ST wird in diesem Fall also angewandt, um Videobilder in Echtzeit zu digitalisieren, mit einer bestimmten Falschfarbendarstellung zu versehen und sofort wieder auf dem Monitor anzuzeigen. Dazu verwenden wir Rhothron-STs mit eingebautem VME-Bus, in die Frame Grabber (Echtzeit-Video-Digitizer) gesteckt werden.

Rückkopplungskreislauf. Je nach gewählter Falschfarbendarstellung, Lage der Kamera zum Monitor, Blendenöffnung, Schärfe usw. kann man völlig unterschiedliche Resultate erzeugen.

Chaos. Andere Parameter führen zu völlig unterschiedlichen Ergebnissen als bei unserem Titelbild.
Ordnung. Durch stabile Bilder, die sich mit der Zeit nicht verändern, zeichnet sich Ordnung aus.
Ordnung. Ein symmetrisches stabiles Bild

Die zur Ansteuerung des Bildspeichers nötige Software wurde in der Gruppe in C und Assembler entwickelt. Sie wurde in unser Programmpaket BIG BROTHER integriert, das praktisch alle anfallenden Laboraufgaben und Auswertungen bewältigen kann. Gerade der VME-Bus ist in diesem Fall eine Stärke der STs. Durch die komplette Einbindung der VME-Bus-Karten ist der Zugriff auf den Speicher des Frame-Grabbers nicht nur schnell, sondern auch einfach, ganz im Gegensatz zu den in 64 KByte gestückelten Speicherzugriffen auf AT-Bus-Frame-Grabbern.

Gerechnetes Feedback

Bei der optischen Rückkopplung kommt es durch Monitor- und Kameraverzerrungen zu teilweise störenden Effekten, die die Reproduzierbarkeit sehr stören. Wir haben den Rückkopplungskreis aber auch ausschließlich im Computer simuliert. Dabei wird ein im Computergespeichertes Bild Pixel für Pixel verrechnet und so intern rückgekoppelt.

Für die Berechnung und die Anzeige der Bildfolgen werden wiederum selbstgeschriebene Programme verwendet. Die Berechnung eines einzigen Rückkopplungsschritts (also eines Bildes mit 320x200 Pixeln mit 8 Bit Farbtiefe) dauert ca. 30 Sekunden. Damit die zeitliche Entwicklung gut sichtbar ist, werden deshalb die Bilder zunächst auf Wechselplatte gespeichert. Diese Bildfolgen (von je ca. 120 Bildern) werden dann geladen und mit bis zu 25 Bildern pro Sekunde abgespielt. Auch hier ist der ST wieder der Computer der Wahl, weil die 4 MByte Speicher komplett als Bildschirmspeicher genutzt werden können. Damit ist es möglich, nur durch Ändern eines einzigen Registers ein anderes Bild anzuzeigen und somit in beliebig schneller Folge die Bildsequenzen abzuspielen. Wie lange benötigt man dagegen, um ein Bild vom Speicher eines 486ers in dessen Grafikkarte zu kopieren?

Da im gerechneten Rückkopplungskreislauf eine größere Freiheit bei der Wahl der nichtlinearen Wechselwirkungen der einzelnen Pixel besteht, können noch interessantere Ergebnisse erzielt werden: Ordnung, d.h. komplexe Strukturen, entstehen. Aber was noch viel wichtiger ist: Das System ist in der Lage, gestörte Strukturen zu rekonstruieren. Diese Fähigkeit heißt assoziatives Gedächtnis.

ST und BETACAM SP - zwei STs in trauter Eintracht mit einer gut zehnmal so teuren MAZ.
Erkennung eines „Smiley“ - „gelerntes“ Bild (l.o.), verrauschtes und verschobenes Smiley (r.o.), Bild nach 30 Schritten (l.u.), Ergebnis nach 50 Schritten (r.u.)
Skizze zur Triangulation

Diese Fähigkeit kann man auch zur Erkennung von einfachen Objekten anwenden. Mit prinzipell gleichen Algorithmen ist es z.B. möglich, verrauschte, unscharfe oder anders gestörte Bilder zu rekonstruieren und zu erkennen [3].

Sicher können Sie sich noch keine richtige Vorstellung von den Ergebnissen machen, weil der dynamische Aspekt (also die zeitliche Entwicklung) in Fotos nur schwer vermittelt werden kann. Aus diesem Grund erstellten wir ein Video zu diesem Thema. Wie man aus den obigen Zeilen entnehmen kann, trugen unsere STs wesentlich zum Gelingen dieses Lehrfilms bei (wobei allerdings auch ein AMIGA für einige erklärende Grafiken benutzt wurde) [4],

Eine Erweiterung des obigen Konzepts führt uns zu Neuronalen Netzen. Auch auf diesem Gebiet wird in unserer Gruppe gearbeitet, wobei der Schwerpunkt auf möglichst einfache und reduzierte Netze gelegt wird, die schnell arbeiten.

3D-Sensoren

Warum beschäftigen wir uns in der Angewandten Optik mit Bildverarbeitung im weitesten Sinn? Unser eigentliches Hauptarbeitsgebiet ist, optische Sensoren zur dreidimensionalen Abtastung von Objekten zu entwickeln. Die so gewonnenen Daten können dann z.B. mit Neuronalen Netzen weiterverarbeitet werden, um beispielsweise die Lage, die Entfernung, die Beschaffenheit von Objekten zu ermitteln, und auch, um verschiedene voneinander zu unterscheiden [5].

Der Grund für die Verwendung von 3D-Sensoren ist, daß ein normales 2D-Kamerabild oft nicht genügende oder dem Problem nicht angepaßte Daten liefert. Will man beispielsweise einen Zahn im Mund vermessen, so braucht man eben Informationen über den „Höhenlinienverlauf".

Außerdem ist die Interpretation von 3D-Daten oft einfacher als die von 2D-Daten. Liegt z.B. ein Gegenstand auf einer ebenen Fläche, kann man durch die unterschiedliche Höhe der Ebene und der Oberfläche des Objekts die beiden leicht voneinander abgrenzen (segmentieren). Bei einem einfachen 2D-Bild muß man dagegen Schattenwurf oder unterschiedliche Objekthelligkeiten beachten. Auch Veränderungen in der Beleuchtung stören im 3D-Bild kaum, da diese ja gar nicht aufgenommen wird.

Bevor wir zeigen, welche Aufgabe hier dem ST zukommt, wollen wir die Funktionsweise eines unserer Sensoren kurz erklären. Dieser Sensor basiert auf dem Prinzip der Triangulation:

Ein Lichtpunkt (Laserspot) wird auf die Oberfläche des zu vermessenden Objekts zeilenweise abgebildet. Das vom Spot ausgehende Licht wird von einer Videokamera, die sich in einem bestimmten Winkel zum einfallenden Licht befindet, aufgenommen. Je nachdem, auf welcher Höhe der Laser das Objekt trifft, ist der Spot in der Kamera an einer anderen Stelle zu sehen. Aus der Position des Spotbildes im Videobild ist somit die Objekthöhe an der vom Laser anvisierten Stelle errechenbar. Wird der Laserspot Punkt für Punkt über das Objekt gescannt (wird das Objekt also in Lichtschnitte zerlegt), kann die Höhe eines jeden Objektpunktes aufgenommen werden.

Aufnahme der 3D-Daten

Was tut nun der ST bei der Aufnahme der 3D-Daten? Zunächst sorgt er für das Verfahren des Objekts unter dem Laserspot mit Hilfe eines Schrittmotors, der an der seriellen Schnittstelle angeschlossen ist. Dann wertet er die interessanten Bereiche des von der Kamera gelieferten Videobildes aus. Die Daten der Kamera erhält er direkt über den ROM-Port; Deswegen sind kein Bildspeicher und kein VME-Bus notwendig. Im nächsten Schritt wird nun aus den Daten die Höheninformation errechnet. Dabei wird ein spezielles Verfahren, die Subpixel-Interpolation, verwendet: Das Kamerabild besteht pro Zeile nur aus 512 Pixeln. Damit könnte man also maximal 512 Höhenstufen auflösen. Das wäre aber viel zu wenig. Deshalb wird der Helligkeitsverlauf mehrerer nebeneinanderliegender Pixel benutzt und daraus der Verlauf „zwischen" den Pixeln errechnet. Auf diese Weise kann auf 1/20 Pixel genau die Position des Spotbildes bestimmt werden. Somit können 10000 Höhenstufen und ca. 0.01 mm aufgelöst werden.

Der nächste Schritt ist dann entweder die oben genannte Auswertung mit Hilfe spezieller Algorithmen oder Neuronaler Netze oder eine grafische Aufbereitung zur Darstellung der Objekte.

Das Einlesen und die Verarbeitung der Daten geschieht wiederum mit Hilfe des BIG BROTHER. BIG BROTHER ist ein modulares System, das die Programme von mehreren Generationen von Diplomanden und Doktoranden in einem einheitlichen Benutzerkonzept zusammenfaßt und so der Nachwelt erhält. Module zur Bearbeitung von ein- bis dreidimensionalen Datensätzen stehen zur Verfügung (Filterung, Fourier-Transformation, grafische Darstellung), Ansteuerung von Schrittmotoren, Frame-Grabbern und anderen Peripheriegeräten und ein Kommando-Interpreter. der es ermöglicht, alle Abläufe nicht nur mit der Maus, sondern auch programmgesteuert ablaufen zu lassen.

Man sieht also, daß der ST nicht nur am Schreibtisch, sondern auch im Laborbetrieb auf vielfältige Art und Weise genutzt werden kann. Aufgrund der relativ problemlos funktionierenden Hardware und der sehr mächtigen Software wird den STs in unserer Gruppe wohl noch ein langes Leben be-schieden sein.

Harald Schönfeld / Bernd Spellenberg

Literatur:

[1] P. Davis: Prinzip Chaos, Goldmann Verlag

[2] G. Häusler: Chaos und Ordnung, Technische Rundschau

[3] G. Häusler, E. Lange: Applied Optics, 29(1990), 4798-4804

[4] G. Häusler, T. Neumahr, H. Schönfeld, B. Spellenberg: Chaos, Ordnung und Assoziatives Gedächtnis, Spektrum Akademischer Verlag, Spektrum Videothek, Heidelberg 1992

[5] G. Häusler, J. Herrmann, H. Weißmann: Neue 3D-Sensoren mit nützlichen Eigenschaften, Optical 3D-Measurement Techniques, S. 57- 66, Herbert Wichmann Verlag, Karlsruhe 1989

Mit 3D-Sensoren rekonstruierter Zahn


Aus: ST-Computer 04 / 1995, Seite 14

Links

Copyright-Bestimmungen: siehe Über diese Seite