Anhang 9.5
Spezial-Report Thomas Noll:
Semiotics@EncycloSpace

9.5.3 Bildliche Zeichensysteme

Seit der Antike hat es eine andauernde Diskussion um das Phänomen des Bildes gegeben. Durch eine ständige Erweiterung in den Verfahren der Herstellung, Vervielfältigung und Verbreitung von Bildern hat sich auch der damit verbundene Gegenstandsbereich stetig verändert. Das gilt sowohl für den syntaktischen als auch den semantischen Bereich. Eine zentraler Diskussionsgegenstand war stets die Frage nach dem Verhältnis von Bild und Abgebildetem. Die philosophische und semiotische Literatur zur Bildproblematik ist voll von Kontroversen über die Natur der Bildbeziehung. Zwei Bedingungen sind dabei besonders favorisiert, kritisiert und auch gegeneinander ausgespielt worden: Ähnlichkeit und Kausalität. Angesichts einer technischen Zeichnung, die einen dreidimensionalen Gegenstand darstellen soll, mag es naheliegen, von einer Ähnlichkeit der gewählten Perspektiven in der Zeichnung zu dem dargestellten Gegenstand zu sprechen. Andererseits mag es bei Photographien, Rhöntgenbildern oder aus Ultraschallmessungen und Kernspintomographien generierten Bildern sinnvoll erscheinen, von einer Verursachungsbeziehung, also einer Kausalbeziehung zwischen Abgebildetem und Bild zu sprechen. Nach Ansicht vieler Bildsemiotiker sind beide Beziehungen: Ähnlichkeit und Kausalität weder notwendig noch hinreichend, um die Zeichenfunktion von Bildern zu charakterisieren. Für einen Überblick über die einschlägigen Argumentationen verweisen wir auf Scholz (1991).

Ein entscheidender Schritt in der Bilddiskussion war die Betrachtung von Bildern als Elementen von bildlichen Zeichensystemen. Anstatt die Natur einer einzigen Bildbeziehung zu studieren, ging es jetzt um die Struktur ganzer Bildsysteme und die ihrer Zeichenfunktionen in die zugehörigen Anwendungsbereiche. Eine Schlüsselstellung nimmt hier Nelson Goodmans (1968) Buch "Languages of Art" ein. In der folgenden knappen Darstellung muß auf philologische Tugenden verzichtet werden. Es wird daher nicht Goodmans Lehre vorgestellt, sondern es werden nur einige seiner Ideen großzügig paraphrasiert.

Das Ausgangsmaterial für die Definition eines Zeichensystems ist eine Menge von Zeichenträgern, die einen gegebenen Wirklichkeitsbereich klassifizierend strukturieren sollen. Je komplexer dieser Wirklichkeitsbereich ist -- d.h. je vielfältiger er in mögliche Signifikate gruppiert wird --, desto höher werden die Forderungen an die klassifikatorische Potenz der Signifikanten. Bildsysteme werden bei Goodman zunächst als Zeichensysteme negativ charakterisiert, als sie eine Reihe von einfachen mengentheoretischen Struktureigenschaften nicht besitzen sollen: Ihre Signifikanten sollen beispielsweise nicht als disjunkte Mengen von Zeichenträgern und ihre Signifikate können nicht als disjunkte Mengen von dargestellten Objekten definierbar sein. Auch soll es keine endlichen Prozeduren geben, die die Zugehörigkeit von Zeichenträgern zu vorgegebenen Signifikanten oder von Objekten zu Signifikaten feststellbar machen. Es handelt sich bei dieser Charakterisierung zunächst um eine Abgrenzung der Bildsysteme von den sogenannten notationellen Systemen in jeglicher Hinsicht, die für letztere relevant sind. Es bleibt dann die Frage, worin der systematische Zusammenhang zwischen den Signifikanten und den Signifikaten innerhalb eines Bildsystems bestehen soll. Goodman bringt hier den Begriff der topologischen Dichte ein, und verlangt (implizit), daß die Gesamtheit der bildlichen Signifikanten und der bildlichen Signifikate jeweils als topologische Räume definiert werden müssen, von denen er außerdem fordert, daß sie dicht sein sollen. Intuitiv bedeutet das, daß in jeder noch so kleinen Umgebung jedes Signifikanten (oder Signifikats) noch weitere Signifikanten (bzw. Signifikate) des Bildsystems angetroffen werden müssen. Beispielsweise können Linien minimal verformt werden, Farben in beliebiger Feinheit variiert werden. Damit ist aber noch nichts über die Natur der Zeichenfunktion selbst gesagt. Bach (1970) fügt daher die Forderung nach der Stetigkeit der Zeichenfunktion hinzu: d.h. kleine Variationen im Signifikanten sollen auch kleine Variationen im Signifikat zur Folge haben.

Für unsere Überlegungen ist es nun von großem Interesse, die Leistungsfähigkeit bildlicher Zeichensysteme gegen die der natürlichen Sprachen auszuspielen. Nach Goodman unterscheiden sich die semantischen Bereiche nicht, denn in beiden Fällen sind die involvierten Wirklichkeitsbereiche topologisch dicht. Dahingegen charakterisiert Goodman die syntaktische Seite der natürlichen Sprache als disjunkt und endlich differenziert, d.h. die Signifikanten -- Buchstaben, Wörter und größere sprachliche Ausdrücke -- können als disjunkte Mengen von physikalischen Zeichenträgern definiert werden und es gibt endliche Prozeduren, die die Zugehörigkeit von Zeichenträgern zu vorgegebenen Signifikanten feststellbar machen (de facto gründet sich die automatische Spracherkennung -- auditiv oder visuell -- ebenfalls auf diese Überzeugung). Um nun ein beliebiges Signifikat mit einem sprachlichen Signifikanten isolieren zu können, muß man zuweilen sehr komplexe syntaktische Gebilde heranziehen; d.h. es müssen sehr komplexe Merkmalskonfigurationen aus einem kleinen und begrenzten Repertoire von Merkmalen gebildet werden. Im Falle des Bildsystems ist auch die syntaktische Seite ein dichter topologischer Raum. Typischerweise gibt es hier eine Balance zwischen den signifikanten und den signifizierten Merkmalen. In Bachs Konzeption ist dieser Zusammenhang sogar stetig. Für die Navigation hat dies wichtige Konsequenzen: Wenn es angesichts eines einzelnen Bildes offen ist, welche Merkmale signifikant sind, so kann eine stetige Variation entlang geeigneter Parameter den Aufschluß darüber intuitiv erbringen. Die beliebte Floskel: "Ein Bild sagt mehr als tausend Worte" bringt immerhin richtig zum Ausdruck, daß das Bild eine höhere Ökonomie der Signifikation aufweist, sofern diese zustande kommt. Vielleicht sollte man passender formulieren: "Ein Bild zeigt mehr, als tausend Worte sagen."

Foucault (1983) bezeichnet den Gegensatz zwischen zeigen und nennen, sowie zwischen abbilden und sagen als einen der ältesten "unserer alphabetischen Zivilisation". Die Frage der gegenseitigen Übersetzbarkeit von Bildern und Texten beschäftigt interessanterweise zwei relativ selbstständige Disziplinen der Computerwissenschaften, und zwar jeweils in einer der beiden Richtungen: Computergraphics und Computervision.

Computergraphics ist poietisch ausgerichtet; es geht vor allem um die computergestützte Produktion von Bildern mit einer konkreten intendierten Signifikation, deren Erfüllungsbedingungen textuell formuliert werden. Computervision hingegen ist aestesisch ausgerichtet; es geht um die Erkennung von in gegebenen Bildern abgebildeten Gegenständen aus einem sprachlich (etwa durch Namen und Eigenschaften) erfaßten Wirklichkeitsbereich.

Die Algebraisierung der Geometrie seit Descartes hat uns zunehmend leistungsfähig in der Bennenung gewisser bildlicher Elemente gemacht. Insbesondere kann man die durch Koordinatensysteme vermittelten Parametrisierungen als Systeme von Namen für Bildpunkte oder Bildelemente ansehen. Umgekehrt eignen sich diese Parametrisierungen als Bestandteile technologischer Zeichensysteme in der Herstellung von Computergraphiken.

Ein besonderer Typ von Bildern vermittelt diagrammatisches Wissen : Gemeint sind Visualisierungen von Graphen, semantischen Netzen oder Concept Maps (vgl. M.Gaines, M.Shaw 1996). Im Sinne Goodmans handelt es sich hierbei um Bilder von geringer Fülle, insofern nur ausgewählte Bildmerkmale signifikant sind.

Weiter unten gehen wir auf ein spezielles Projekt zum automatischen Zeichnen von Graphen ein.

ZURÜCK WEITER