2.2 Begriffsbestimmung: Von Diderots Encyclopédie zum EncycloSpace

2.2.1 Kritische Würdigung

In Auroux' Zusammenfassung [9], p.313ff, wird die Encyclopédie beschrieben als getreue Verwirklichung des mittelalterlichen speculum mundi: "L'encyclopédie assume par sa fixité relative le rôle d'un miroir du monde naturel, tel qu'il peu s'offrir aux sujets connaissants." Diese Einsicht spezifiziert die durch den orbis terrae symbolisierte Vollständigkeit als fixierten Kosmos. Das Bild ist die traditionelle Ansicht einer stationären Welt, welche Hans Blumenberg (siehe [158], p.68) mit dem "Zuschauer-Modell" umschrieben hat: Die Welt ist nicht verfügbar und unveränderlich. Dieses unbewegliche Bild kann allerdings nicht mehr bestehen in einer Welt, wo Wissen sich schnell, unaufhörlich und massiv erweitert. Man muss akzeptieren, dass die lediglich räumlichen Welt-Koordinaten (in Diderots Worten: "...connaissances éparses sur la surface de la terre...", Hervorhebung G.M.) durch die Zeitkoordinate ergänzt werden. Wir haben es mit einem dynamischen Univerum des Wissens zu tun, das in eine virtuelle Raum-Zeit eingebettet ist und Gesetzen der Koppelung von Synchronie und Diachronie gehorcht. Die Entwicklung von Wissen ist also nicht eine Reihung von isolierten und im wesentlichen unveränderlichen Zeitschnitten.

Ferner geschieht der Wandel in diesem dynamischen System nicht durch autonomes Wirken eines 'Weltautomaten'. Er ist Resultat einer unaufhörlichen und substantiellen Wechselwirkung der Menschheit mit dem Corpus des Wissens. Die Welt des Wissens im "Zuschauer-Modell" erleidet auch "Schiffbruch" (Blumenberg), weil wir in sie ständig aktiv eingreifen. Wie die politische und zivilisatorische Dynamik oder die schlichte Kontinentalverschiebung, so ist auch der enzyklopädische Corpus ein offenes System, das unaufhörlich und in Synergie mit der menschlichen Wissensproduktion, neu gestaltet wird. Die Metapher des Speculum, also einer passiven Vision gegebener Dinge, trifft nicht zu. Wir betrachten nicht vorfabrizierte, prästabilierte Dinge und Begriffe, sondern wir bestimmen sie immer wieder neu, fügen neues Wissen zu altem und korrigieren Mängel. Es ist also die Passiv-Metapher des Speculum durch eine adäquatere Interaktiv-Metapher eines Instrumentum zu ersetzen. Letzteres entspricht dem Computer als Instrument einer Schnittstelle, die in beiden Richtungen: von Datenbanken des Wissens zum Menschen und umgekehrt aktiv ist. Dieser Aspekt ist substantiell, da er auch die eigentliche Natur des Wissens hinterfragt. Begriffe sind in diesem Zusammenhang nicht mehr jenseitige Wesenheiten (Ideen), die irgendwo in einem platonischen Himmel, uperouranioz topoz (hyperouranios topos), ein für allemal festgemacht worden sind. Sie stellen vielmehr operationelle Einheiten dar, deren Ontologie zuinnerst mit der Zugreifbarkeit auf begriffliche Bestimmungsstücke verknüpft ist. Verstehen eines Begriffs hat in dieser Perspektive viel zu tun mit dem, was aktiviert wird, wenn man vor der Aufgabe steht zu verstehen, was man zu verstehen meint. Niklaus Luhmann fasst diese Erkenntnis in [120], p.129, so zusammen: "...so weit es (i.e. Wissen) gewusst werden soll, muss es immer wieder neu vollzogen werden. (...) Daher kann Wissen nicht nach der Art eines zeitbeständigen Vorrats begriffen werden, sondern nur nach der Art einer komplexen Prüfoperation." (Hervorhebung durch G.M.)

Schliesslich ist die Darstellungsordnung einer Enzyklopädie eine doppelte: An der Oberfläche zeigt sie eine alphabetische Ordnung, die durch die traditionelle Text-Ausrichtung diktiert wird. Mehr in der Tiefe (der Semantik) wird eine quasi-geographische Orientierung gegeben durch das System der Querverweise. Während Alphabetismus strikt linear geordnet ist, stellt das Verweis-System lediglich eine teilweise Relation zwischen 'Pointern' (Zeigern) dar, also etwas technisch weit weniger Stringentes. Dies ist auch darin begründet, dass die Begriffe in der Encyclopédie nicht eingeschnürt sind in eine formale Darstellungssprache, so dass über die alphabetische Ordnung hinaus keine intrinsische Organisation sichtbar wird für die Darstellung von Begriffsörtern. Dieser Punkt ist weit mehr als nur eine Frage der formalen Darstellung von Wissen, das man ja ohnehin im wesentlichen schon verinnerlicht hat. Es geht hier ganz genau um die Frage nach der Natur des 'Raumes', worin die Topoi oder die Begriffe als Örter des Denkens ihr Sein haben. Diese Frage ist, wie gesagt, schon in den platonischen Gleichnissen, in Aristoteles' "Topik" und in Kants Anmerkung zu Aristoteles betreffend die Amphibolie der Begriffe virulent. Solange die relative Lage der Begriffe nicht beschrieben und verstanden ist, kann eine Ontologie von Begriffen nicht ausgemacht werden. Begriffs-Ontologie ist als Studium der topoi (topoi) wesentlich auch Topologie. In diesem theoretischen Sinn ist alphabetische Navigation nicht hinreichend, und begriffliche Navigation müsste Werkzeuge und Paradigmen zur Verfügung stellen, die Alphabetismus übersteigen und generische Prinzipien realisieren zur Beantwortung der allgegenwärtigen Diskurs-Fragen: Woher kommt der Begriff? Wo ist er? Wohin führt er?

Von einem mehr operationellen (und praktischen) Standpunkt gesehen müsste die alphabetische Ordnung erweitert und vervollständigt werden durch Ordnungen, die genuin sich beziehen auf textuell nicht darstellbare Begriffsaspekte, etwa geometrische Räume, Systeme von Mengen und dergleichen (siehe Abschnitt 7.4 für nicht-alphabetische Ordnungsparadigmen). Solche allgemeineren Topologien treten in natürlicher Weise auf in Hypermedia-Dokumenten, die per definitionem aus Hypertexten entstehen dadurch, dass 1. an den Verweisknoten beliebige elementare Dokumenttypen wie Text, Bild, Bewegtbild, Klang und Gestik stehen dürfen, und dass 2. diese Knoten-Dokumente im Prinzip beliebig editierbar sind. Begriffliche Navigation muss aber auch aus theoretischen Erwägungen hypermedialen Orientierungsparadigmen genügen: Es gibt keinen Grund, weshalb die absolut beliebige textuelle Darstellung die intrinsische Ordnung und Ortung von Begriffen erfassen könnte und sollte. Seien wir ganz klar: die strikte Reduktion auf die minimale Textualität des binären Codes kann virtuell jede Information festhalten. Aber es geht nicht darum, sondern um die Darstellung tiefer liegender Zusammenhänge, also eines Verständnisses der Begriffskonstrukte, die binär encodiert sind. Dies ist wesentlich eine Frage der Semiotik, dh. des Bedeutungspotentials, das in einer Darstellung zu realisieren ist, und solches ist definitiv nicht das Geschäft des 'nackten' binären Codes. Binäre Reduktion zerstört ohne Decodierungsgrammatik die Struktur unwiederbringlich. Der letzte Satz "Worüber man nicht sprechen kann, darüber muss man schweigen."aus Ludwig Wittgensteins "tractatus logico-philosophicus" [175], diese berühmte Killerphrase kollabiert im Zeitalter der Hypermedien, denn ihm wären akustisch/musikalische, visuelle/geometrische oder gestische/tänzerische1 Alternativen des Ausdrucks anzufügen, wenn die schlichte Wort-Sprache versagt. Die Antwort auf Sprachversagen darf nicht das Schweigen, sondern muss die Sprachentgrenzung vermöge adäquater Mittel sein.

 

ZURÜCK WEITER