Publikationen 1970 - 1985 - / -Publikationen 1986 - 1990
Publikationen 1991 - 1995 - / - Publikationen 1996 - 2000
Publikationen 2001- - / - Vorträge


 


Berliner Bibliothekswissenschaftliches Kolloquium

am 5.12.2000

Zur Begründung der Thesaurusrenaissance

W. Umstätter

im

Institut für Bibliothekswissenschaft


Einleitung

Der Kollege Kuhlen hat letzte Woche im Rahmen des BBK sein Projekt ENFORUM hier vorgestellt, das nach meiner Einschätzung zunächst eine gewisse Ähnlichkeit mit einer Idee hat, die ich 1994, bei meinem Eintritt in dieses Institut, auch hatte. Es ist ja folgerichtig auch schon bei der Diskussion in der letzten Woche angesprochen worden. Das was ich als Digitales Lehr- und Handbuch der Bibliothekswissenschaft, in Anknüpfung an Milkaus Handbuch der Bibliothekswissenschaft bezeichnete, nennt Kuhlen ein Enzyklopädisches Forum. Damit werden aber zwei Unterschiede deutlich.
  1. Meine Vorstellung von der Zusammenarbeit im Sinne eines Interpersonal Computings zur Erstellung eines Lehr- und Handbuchs ist bisher gescheitert. Hier hoffe ich auf sehr viel mehr Erfolg des Kollegen Kuhlen. Ich traue es ihm auch zu und bin daher hoch erfreut über diesen neuen Ansatz. Was dieses Institut inzwischen auch schon vorweisen kann ist eine Vorarbeit bei herkömmlichen Lehrbüchern und ergänzende Studienführern, bei denen wir uns inzwischen langsam an gemeinsame Definitionen und Inhalte herantasten.
  2. Eine Enzyklopädie ist kein Lehr- und Handbuch. Sie verträgt, im Gegensatz zu einem Lehrbuch auch eine widersprüchliche Terminologie. Unsere Lexika sind voll solcher Widersprüchlichkeiten. Mit dem sogenannten Glossar, wie es der Kollege Skalski aus unserem Hause schon vor vielen Jahren begonnen und mit hohem Engagement, in einer aufwendigen Zusammenarbeit der Fachwelt, fortgeführt hat, haben wir zweifellos auch hier eine gewisse Vorarbeit für das ENFORUM. Sicher müsste aber auch noch über die relativ schwache Resonanz in der Fachwelt auf diese doch recht beachtliche Leistung diskutiert werden. Ich vermute, dass es mir wie vielen anderen ging, man diskutierte die verschiedenen Erklärungen nicht, weil es sich nicht lohnte eine stringente Argumentation dagegen aufzubauen. Das gelingt nur im Rahmen eines in sich homogenen Lehrbuchs oder eines Thesaurus. Hier liegt aus meiner Sicht eine Gefahr für das ENFORUM. Wir dürfen nicht übersehen, dass es nicht einmal den Herausgebern des sog. LaiLuMU (Laisiepen, K., Lutterbeck, E. and Meyer-Uhlenried K.-H. 1997) gelungen ist, eine brauchbare Terminologie zugrunde zu legen. Um so wichtiger erscheint mir daher das ENFORUM zu sein.
 Ich sehe allerdings nur eine Chance für einen wirklichen Erfolg, wenn der Thesaurusaspekt mit berücksichtigt wird. Das soll hier näher ausgeführt werden.
Grundgedanken
Die Thesaurusrenaissance die wir zur Zeit erleben hat drei Gründe, auf die wir näher eingehen müssen:
  1. Einer der sich aus der Evolution der Bibliothekswissenschaft erklären lässt.
  2. Einer der sich aus den großen Textangeboten im Internet ergibt.
  3. Einer der sich in den Kooperationsmöglichkeiten des Internets finden lässt.
 Sie alle führen interessanterweise zum selben Phänomen, wir erschließen in der Digitalen Bibliothek nicht mehr nur Bücher, oder Zeitschriftenaufsätze, wir erschließen weitaus kleinere Wissenselemente, die die Wissenschaftler in kooperativer Gemeinschaftsleistung publizieren. Sie tun dies zunehmend in Wissensbanken bzw. in strukturierten SGML-Dokumenten. Eine solche Zusammenarbeit kann nur auf einer gemeinsamen Terminologie aufbauen.

Die Evolution der Bibliothekswissenschaft

Dass wir beim ersten Punkt bis auf den Beginn der deutschen Bibliothekswissenschaft und damit auf den bekannten Disput zwischen M. Schrettinger und A. Ebert zurückgehen müssen mag zunächst etwas erstaunen. Es ist aber durchaus folgerichtig, wie man rasch einsehen kann. Während Schrettinger in Folge der Säkularisation bekanntlich das Problem hatte größere Mengen von Büchern in seiner Bibliothek rasch zu inkorporieren, um sie dann mit Hilfe des Katalogs auch wieder auffindbar zu machen, vertrat Ebert als wichtige Erschließungsmethode des damaligen Wissens die Ansicht, dass die monographischen Einheiten durch eine monohierarchische Klassifikation geordnet und so auch aufgestellt werden sollten. Auch wenn sich dieser Streit bis in unsere heutige Zeit hinein fortgesetzt hat, so brachte zunächst die Entwicklungen der Bibliographien eine zusätzliche Erschließungskomponente in das System. Interessanterweise können wir diese Entwicklung mit D.J. de Solla Price (1974) auf etwa 1830 zurückverfolgen. Um 1900 ist die Entwicklung der bibliographischen Erschließung bekanntlich in die der Dokumentation übergegangen, die 1963 wiederum den Quantensprung zur sogenannten Online-Dokumentation vollzog.
Für unsere Betrachtungen entscheidend ist, dass wir anfangs ein wissenschaftliches Thema, abgehandelt in einer Monografie, durch etwa eine fachliche Zuordnung zu einer Themenklasse erschlossen haben. Man könnte vereinfacht von der ein Buch - ein Begriff – Beziehung sprechen. Die Dokumentation brachte dann im laufe der Zeit eine etwa hundertfach bessere Erschließung, indem sie für fast jede publizierte Seite einen Deskriptor aus einem polyhierarchisch gegliederten Thesaurus vergab. Das Koordinate Indexing (unsauber mit gleichordnende Indexierung übersetzt) verdrängte zunehmend die bibliografische Einordnung von Dokumenten. Wie dringend wir hier wieder eine brauchbare Terminologie benötigen, zeigt die Definition von Dokumenten, die wir in unserem Lehrbuch (Ewert,G. und Umstätter, W.1997) vorgenommen haben. Im sog. LaiLuMU (Laisiepen, K., Lutterbeck, E. and Meyer-Uhlenried K.-H. 1997), dem deutschen Standardlehrbuch der Information und Dokumentation ist im Laufe der Zeit (2. Auflage 1980; 4. Auflage 1997) einiges an Wissen verlorengegangen. In der neusten Auflage finden wir, mit nur sechs Seiten Entfernung, den Begriff Dokument widersprüchlich definiert. Beim Begriff Präkoordination merkt man rasch, dass ein Autor keine Grundkenntnisse der Dokumentation besitzt und Begriffe wie Koordinate Indexing, Präkoordination, Präkombination und Postkoordination nicht richtig einzuordnen weiß. Wir stehen in der großen Gefahr, dass die dozierenden ebenso wie die studierenden Bibliothekare und Dokumentare nicht mehr wissen was richtig ist, wenn sie dieses "Lehrbuch" unkritisch lesen.
Im Einklang mit der Erschließung zunehmend kleiner Wissenselemente entwickelte sich seit der Mitte des 17. Jahrhunderts die sogenannte unselbständige Literatur, in der neue Wissenselemente in Form von Zeitschriftenaufsätzen, mit durchschnittlich zehn Seiten, erschienen. Bei ihnen war das wesentliche eines Wissenselementes, die der Wissenschaft neu hinzugefügte Information und insbesondere deren Begründung, schon sehr viel klarer als bis dahin erkennbar. So muss zur Absicherung der Begründung eines bestimmten Ergebnisses das untersuchte Material bzw. die gewählte Methode genannt werden. Die eigenen Ergebnisse sind grundsätzlich in Relation zu anderen bereits vorhandenen Ergebnissen zu diskutieren und durch Zitation zu vernetzen.
In Fortsetzung dieser evolutionären Entwicklung beschäftigen wir uns nun mit noch kleineren Wissenselementen, so wie sie beispielsweise auch in Wissensbanken Verwendung finden. Ein solches Wissenselement kann ein einziger Satz oder auch eine mathematische Gleichung sein. Dies zum Gegenstand der inhaltlichen Erschließung zu machen, ist in dieser Feinheit eine konsequente Entwicklung der modernen Bibliothekswissenschaft.

Ontologien

Die Textangebote des Internets, die heute etwa im Bereich von Milliarden Sätzen liegen dürften, haben es zunächst notwendig gemacht, dass man diese Texte über Suchmaschinen erschloss. Dabei bestand natürlich immer das alte Problem der Terminologie, dessen Lösung von Programmierern allerdings anders angegangen wird, als von Indexierern oder von Linguisten. Während man bei Bibliothekaren und Dokumentaren eher an eine intellektuelle bzw. formale zusätzliche Erschließung dachte, es sei hier auch an die Metadatendiskussion im Zusammenhang mit SGML und an den Dublin-Core erinnert, so lag es für Linguisten nahe, an Textanalysen zu denken. Für Programmierer war es in jedem Falle klar, solche Überlegungen möglichst weitgehend in Programmroutinen zu fassen. Beeindruckende Beispiele waren z.B. WordNet und insbesondere CYC (abgeleitet von Encyclopedia), das von D. Lenat entwickelt worden ist.
Die Möglichkeit, Textanalysen durch intelligente Programme so vornehmen zu lassen, dass diese Programme die Bedeutung bestimmter Worte in bestimmten Zusammenhängen erlernen können, führten dann zu den sogenannten Ontologien. Wir können an dieser Stelle die Frage überspringen, ob diese Ontologien etwas mit der philosophischen Frage nach dem Seienden zu tun haben, sie haben zumindest im Prinzip etwas mit dem zu tun, was wir (Schwarz,I. und Umstätter, W. 1999) semiotische Thesauri nennen, und diese wiederum haben etwas mit der Frage zutun, welche Begrifflichkeit hinter einem Wort steht.
So beeindruckend die Erfolge der künstlichen Intelligenz auf dem Gebiet der Begriffserkennung sind, hier wird auch gern und viel von Knowledge Acquisition gesprochen, so wenig darf man sich darüber hinwegtäuschen lassen, dass entsprechende Programme nur die Bedeutung von Worten erkennen können, so wie sie gebraucht werden, und gerade hier erkennen wir sehr viel Unschärfe und Laienhaftigkeit.
Unsere Aufgabe muss es daher sein, den entgegengesetzten Ansatz zu realisieren. Wir müssen einen wissenschaftlich begründeten semiotischen Thesaurus schaffen, den wir gleichzeitig als Gliederung für das Digitale Lehr- und Handbuch verwenden können. Darin sehe ich auch das Ergebnis der bisherigen Überlegungen zum Aufbau eines solchen gemeinsamen Werkes.

 

Kooperative Wissensproduktion

Die Nutzung des Internets zur kooperativen Erstellung von Enzyklopädien, Glossaren, Terminologien, Thesauri oder Wörterbüchern bietet sich heute geradezu zwangsläufig an. Das zeigt schon die Vielzahl an Begriffen, wie Workgroup Computing, Interpersonal Computing, Groupware, etc. Im allgemeinen organisierte man das früher so, dass ein Herausgeberteam Fachleute anschrieb, die zu ihrem jeweiligen Spezialgebiet eine Reihe von Fachwörtern übernahmen, die sie je nach Publikation mehr oder minder umfassend erläuterten, definierten oder in Zusammenhang mit anderen Worthierarchien oder Wortfeldern brachten. Im Sinne der Enzyklopädisten versuchte man die sich ergebenden Begrifflichkeiten, möglichst objektiv zu fassen, was sich unter anderem daran erkennen ließ, dass die Autoren der jeweiligen Beiträge in den Hintergrund traten. Sie wurden entweder gar nicht genannt, oder erschienen nur durch Angabe der Initialen. Im Prinzip geht es auch hier um die sogenannte Uncitednes III (Garfield, E. 1973).
 Durch das hohe Renommee, das einige dieser Werke erreichten, nahm allerdings das Interesse darin namentlich aufzutauchen sowohl bei den Autoren zu, als auch bei den Herausgebern, die ihrerseits mit den anerkannten Autoritäten den Werken ein erhöhtes Gewicht verliehen. Trotzdem bemüht man sich auch heute noch um verstärkte Abstimmung und Zusammenarbeit bei der Erstellung solcher terminologisch wichtiger Werke. Auf der Basis von SGML können wir heute auch Copyrights für einzelne Wortbeiträge vergeben. 
Vergleicht man die angloamerikanische Tradition der Enzyklopädien mit der deutschen so ist auffällig, dass beispielsweise die Encyclopedia Britannica ganze Sachthemen zu mehrseitigen Abhandlungen zusammenfasst, die dann durch ein Stichwortverzeichnis erschlossen werden. Die darin enthaltenen Begriffe sind geradezu zwangsläufig aufeinander abgestimmt, was bei einer Enzyklopädie wie dem Brockhaus bei weitem nicht so zwingend ist, weil die einzelnen Begriffe einer Gesamtthematik von verschiedenen Autoren mitunterschiedlichen Perspektiven abgehandelt werden können. In diese Richtung geht auch das ENFORUM mit nur etwa zwanzig Zeilen pro Schlagwort.
Die Definition wichtiger Fachbegriffe kann meines Erachtens nur im Kontext einer Abhandlung oder in dem eines Thesaurus sinnvoll entstehen. Hier sehe ich weiterhin das Problem bei unserem Glossar. Der Versuch, mit Hilfe von herkömmlichen Lehrbüchern eine Grundlage zu schaffen, scheint mir im nachhinein der einzige Weg zu sein der bisher gewisse Erfolge brachte.
Die langsam in Gang kommende Diskussion darüber, wie wir die Bibliothek definieren, was publizierte Information ist, was wir unter einer Digitalen -,Elektronischen - und einer Virtuellen Bibliothek verstehen, ob Wissen eine begründete Information oder Information "Wissen in Anwendung" ist, macht erfreuliche Fortschritte. Insbesondere die Akzeptanz, dass Bibliothekswissenschaft ein wichtiger, wenn nicht gar der wichtigste Teil der Informationswissenschaft ist, scheint mir, wenn auch langsam, so doch im Grundsatz allgemein akzeptiert zu sein.
 
Informationswissenschaft als Topterm, mit Unterbegriffen wie
Bibliothekswissenschaft (als der Teil, der sich mit der publizierter Information beschäftigt) – wobei die Dokumentationswissenschaft eigentlich der Oberbegriff von Archiv- und Bibliothekswissenschaft ist, weil sie beide nur
  1. Informatik (als der Teil, der sich mit der technischen Verarbeitung der Information beschäftigt) mit Unterbegriffen wie Bioinformatik, Chemieinformatik, Wirtschaftsinformatik etc.
  2. Informationstheorie (als der Teil, der sich mit der Theorie, so wie sie von Fisher, Hartley, Shannon, Weaver, Wiener, u.a. begründet wurde, beschäftigt)
  3. Linguistik (als der Teil der Informationswissenschaft, der sich mit der Informationsübertragung durch die natürliche Sprache beschäftigt)
  4. Kybernetik (als der Teil der Informationswissenschaft, der sich mit der Rückkopplung beim Informationsaustausch beschäftigt). Sie wurde in den letzten Jahren zunehmend mit der Kommunikationswissenschaft verwechselt, die oft davon ausgeht, dass eine Kommunikation erst stattfindet, wenn Sender und Empfänger sich in einem Feedback befinden.
  5. Semiotik (als der Teil der Informationswissenschaft, der sich mit der Semantik (Zuordnung von Zeichen zu Objekten auf der Senderseite), Syntaktik (Zuordnung der Zeichen zueinander) und Pragmatik (rekonstruierende Zuordnung der Zeichen auf der Empfängerseite zu bestimmten Begrifflichkeiten, als Repräsentationen der Objekte auf der Senderseite)  
Skeptisch bin ich allerdings bei dem Versuch, die Akzeptanz bzw. Ablehnung von Begriffen, sozusagen demokratisch durchzuführen, indem alle beteiligten überall mit diskutieren können.
Wissenschaft hat nichts mit Demokratie zu tun. Im Gegenteil, überall dort, wo die Wissenschaft keine ausreichend zuverlässigen Aussagen machen kann, setzen demokratische Entscheidungshilfen ein.
Darum möchte ich hier den Vorschlag machen, dass sich die Bibliothekswissenschaft überall dort in das ENFORUM-Projekt des Kollegen Kuhlen einbringt, wo unser Fachgebiet betroffen ist. Dies sollte aber möglichst gut begründet sein, was aus meiner Sicht nur bedeuten kann, dass wir unsere Terminologie auf der Basis eines semiotischen Thesaurus begründen und nicht auf der von Mehrheitsentscheidungen. Ich bin jederzeit bereit von unserer Definition der Bibliothek abzugehen, wenn es dafür wissenschaftliche Gründe gibt, demokratische Abstimmungen werden mich aber sicher nicht davon abbringen.
Herkömmliche Thesauri in der Dokumentation hatten das Ziel, die Wiedergewinnung indexierter Dokumente zu erleichtern. Dabei dienten die sog. Deskriptoren (ein eher irreführendes Wort, weil die Indexierung zu einem Dokument hinführen und es keinesfalls beschreiben sollte) einer verbesserten Zuordnung von Begriffen zu ihren Benennungen. Diese Zuordnungen wurde insbesondere durch die polyhierarchische Vernetzung der Deskriptoren erreicht.
Im semiotischen Thesaurus geht es im Prinzip um die gleiche Zuordnung von Begriffen zu ihren Benennungen, er dient aber weniger der Wiedergewinnung indexierter Dokumente, als vielmehr der Zuordnung einzelner Wissenselemente.
Wenn wir einen wissenschaftlich begründeten semiotischen Thesaurus schaffen, den wir gleichzeitig als Gliederung für das Digitale Lehr- und Handbuch verwenden können, lässt sich in der Wissenschaft eine Art virtuelles Fließband zur Produktion von Wissen realisieren. Sicher ist diese Assoziation zur Fließbandproduktion des Industriezeitalters keine besonders vorteilhafte. Sie ist aber im Wettbewerb der Wissenschaft, in der nur eines zählt, eine Erkenntnis vor allen anderen in dieser Welt zu erringen, unverzichtbar.

Das Beispiel: Hypertext

Verfolgt man die Definitionsversuche beim Wort Hypertext, so zeigt sich deutlich, wie viele dieser Definitionen in die Irre führen.
Das Schlagwort ist im Brockhaus der UB auf CD-ROM nicht vorhanden. Auch der DUDEN kennt es nicht. Ich betone, das Schlagwort, ob das Stichwort im Brockhaus vorkommt hat mich nicht interessiert. Ich muss das hier erwähnen, weil der Brockhaus unter einer Stichwortsuche eine Schlagwortsuche und unter Volltextsuche eine Stichwortsuche anbietet. Was eine wirkliche Volltextsuche mit Kontextoperatoren ist, scheint beim Brockhausverlag dagegen unbekannt zusein. Damit wird schon deutlich, dass Enzyklopädien, zugunsten einer griffigen und werbewirksamen Nomenklatur, ihr Fachwissen durchaus opfern. 
An dieser Stelle sei angemerkt, dass auch der Duden (Band1Die deutsche Rechtschreibung, 21. Auflage 1996) unter Schlagwort angibt:
         "Plur. ...worte u. (für Stichwörter eines Schlagwortkatalogs:) ...wörter;".
Es scheint mir sehr fragwürdig, wenn die Buchwissenschaft, die der Bibliotheks- und Dokumentationswissenchaft so nahe steht, den Begriff Schlagwort mit Hilfe des Stichworts zu definieren versucht. Wenn man sich dann noch daran erinnert, dass die RSWK auf den Sachverstand von Enzyklopädien zurückgreift, so wird man meine Bedenken (Umstätter, W. 1991) dieser Erschließung gegenüber verstehen.
Auf der CD-ROM des Duden-Verlags findet man dagegen die Erklärung:
"Pl. Schlagwörter» (Buchw.) einzelnes, meist im Titel eines Buches vorkommendes, kennzeichnendes, den Inhalt des Buches charakterisierendes Wort t für Karteien, Kataloge o. ä.."

Sieht man davon ab, dass Karteien und Kataloge weniger eine Frage der Buchwissenschaft sind als die der Bibliothekswissenschaft, so fällt hier auf, dass der wichtigste Punkt, dass Schlagworten eine vereinheitlichte Terminologie zugrunde liegt, die das Nachschlagen erleichtert, fehlt. Daraus ergibt sich bekanntlich auch, dass es Schlagwörter, aber keine Schlagworte (s. Wörterbücher aber keine Wortebücher) gibt, wie der Duden 1996 fälschlich behauptet.  

Mit dieser Präzision einer Fachsprache beginnt eine Wissenschaft eine solche zu sein. Sie setzt aber voraus, dass man das gesamte Fachgebiet begrifflich aufeinander abgestimmt terminologischbearbeitet, weil jeder Begriff das inhaltlich vernetzte System interdependent mitbestimmt.
Doch kommen wir auf das Beispiel Hypertext zurück:
Encyclopedia Britannica Hypertext "also called HYPERLINKING, the linking of related pieces of information by electronic connections in order to allow a user easy access between them."
         Durch die Synonmbildung mit Hyperlinking wird der Begriff bereits unscharf gemacht.
Encarta Hypertext "in der Computerwissenschaft eine Methode, Informationen zu präsentieren, bei der Texte, Abbildungen, Töne und bestimmte Aktionen zu einem komplexen Netz aus Querverweisen verbunden sind."
         Ohne näheren Hinweis wird Hypertext mit Hypermedia gleichgesetzt.
Lexirom Hypertext "über Hyperlinks verbundenes Netz von Texten od. Teilen von Texten"
         Ohne näheren Hinweis wird Hypertext mit Hyperlinking gleichgesetzt.
Foldoc Hypertext "A term coined by Ted Nelson around 1965 for a collection of documents (or "nodes") containing cross-references or "links" which, with the aid of an interactive browser program, allow the reader to move easily from one document to another."         

Obwohl man hier auf die Quelle von 1965 (als man noch keine Ahnung von Hypermedia hatte) zurückgeht, wird sehr unscharf von "documents" nodes" und "links" gesprochen, so dass der Unterschied zwischen Hypertext und Hypermedia auch hier verwischt wird.

Interent  
HTML – HyperText Markup Language
         Eine von SGML abgeleitete Hypertextform, die im Laufe der Zeit immer stärker Zu Hypermediafunktionen integrierte, ohne den Namen zu wechseln.
HTTP – HyperText Transfer Protocol
         Ein Protokoll, das anfangs nur Texte und Bilder übertrug und inzwischen Multimedial immer leistungsfähiger wird.
"By `hypertext' I mean nonsequential writing-text that branches and allows choice to the reader, best read at an interactive screen. As popularly conceived, this is a series of text chunks connected by links which offer the reader different pathways."
(Literary machines)

Wieman sich einen nonsequential Text vorstellen kann bleibt offen, auch wenn für Jeden der weiß was Hypertext bedeutet klar ist, was damit gemeint sein soll.

"A hypertext is not a closed work but an open fabric of heterogeneous traces and associations that are in a process of constant revision and supplementation. The structure of a hypertext is not fixed but is forever shifting and always mobile."
(Taylor and Saarinen, Imagologies, "Telewriting," 6).

Hier wird zunächst gesagt, was es nicht ist, eine geschlossene Arbeit- was so Sicher falsch ist. Das ein Hypertext immer ein "process of constant revision" sein Muss ist sicher auch unrichtig. Das wird eher mit dem Begriff living book bezeichnet.

Was ist ein Hypertext? Vereinfacht gesagt: eine Sammlung von Textsegmenten, die durch Hot-words miteinanderverbunden sind. Hinter diesen Hot-words sind die Adressen der anderen Textsegmente gespeichert, zu denen man durch einen Mausklick auf das Wortgelangt. Dieses Zusammenspiel von Klick und Link ist aus dem Internet bekannt, das gewissermaßen einen riesigen, offenen Hypertext darstellt:"

Auch wenn dies keine Definition, sondern eine Beschreibung dessen ist, was wir Als Hypertext bezeichnen, so kommen wir der Sache hier schon näher. Trotzdem wird etwas später im selben Text festgestellt: "Der Begriff Text ist freilich verwirrend, denn es können in ein solches Segment nicht nur Bilder integriert sein (dies ist auch bei gedruckten Texten der Fall), die Links können ebenso zu kompletten Bild-, Ton- und Videodateien führen. Es gibt deswegen den alternativen Definitionsvorschlag Hypermedia, der aber wieder andere Verwirrung stiftet, denn er assoziieren eher Multimedialität als die ausschlaggebende 'Multilinearität'." Diese Bemerkung ist wiederum unverständlich, weil Multimedia eben nicht synonym zu Hypermedia ist und Multimedialität nichts mit 'Multilinearität' zu tun hat.

 
Hypertext presents a radically divergent technology, interactive and polyvocal, favoring a plurality of discourses over definitive utterance and freeing the reader from domination by the author."
(Robert Coover 1992)

Auch dies ist in seiner Radikalität nicht richtig, da Leser schon immer die Möglichkeit hatten und auch nutzten, nur die Teile zu lesen, die ihnen am interessantesten erschienen.

Hypertext: "A special type of database system, invented by Ted Nelson in the 1960s, in which objects (text, pictures, music, programs, and so on) can be creatively linked to each other."

Man beachte diese Abwegigkeit, da es "in the 1960s" nicht die geringsten Vorstellungen davon gab, was wir heute Multimedia nennen. Das Nelson damit eine spezielle Art von Datenbank erfunden hat, ist so wohl auch nicht richtig. Hier wäre es wichtig die Definition für den Begriff Datenbank heranzuziehen.

"Hypertexte sind - ähnlich wie Lexika- nichtlineare Texte. Sie können als eine neue Publikationsform aufgefasst werden, die dabei ist, sich allmählich aus dem Inkunabelstatus herauszuentwickeln. Vieles spricht dafür, daß die Entlinearisierungstendenzen, die durch diese elektronische Textform unterstützt werden, das orthodoxe Linearisierungsparadigma - zumindest für bestimmte Textsorten - modifiziert."

Der Hinweis auf Verweisungssysteme, wie sie bei Lexika existieren, ist Erwähnenswert, aber definitorisch irrelevant, da es von Hypertexten unabhängig Zahlreiche Publikationen mit Verweisungssystemen gab und gibt. Das gleiche gilt für die Aussage, das es sich um eine neue Publikationsform handle (eine elektronisch anzubietende). So richtig dies ist, so unbedeutend ist es für eine Definition, da Hypertexte auch außerhalb des Publikationswesens einsetzbar sind. Die zusätzliche Möglichkeit Assoziationen zu schaffen wird hier gleich mit Entlinearisierungstendenzen gleichgesetzt. Assoziative Elemente in Texten sind  keinesfalls neu. Insofern waren Texte noch nie nur linear lesbar. Schon die Syntax  in jedem Satz beinhaltet Bezüge zu früheren bzw. späteren Textteilen. Dies muss  bei einer echten Definition berücksichtigt werden. Eine echte Definition zeichnet  sich dadurch aus, dass sie nicht nur das wesentliche eines Begriffs charakterisiert,  sie muss auch die Begrenzung zu den benachbarten Wortfeldern kennzeichnen.

Diese Liste könnte beliebig fortgesetzt werden und würde weiterhin nur deutlich machen, dass die meisten scheinbaren Definitionen keine sind.
 
Wir wollen daher einmal die Evolution einer Definition mit zunehmender Präzisierung nachvollziehen:
So könnten wir sagen:
Hypertext ist durch Links charakterisiert.

Dies ist die Hervorhebung eines wichtigen Charakteristikums aber keine Definition.

Hypertext ist ein verlinkter Text.

Hier wird zunächst klargestellt, dass Hypertext, und diese Aussage ist, wie wir sahen, nur scheinbar trivial, ein Unterbegriff von "Text" sein muss. Das  Charakteristikum der Verlinkung ersetzt dagegen einen Fachterminus nur durch einen neuen.

Hypertext ist ein Text, bei dem verschiedene Textteile miteinander verknüpft (verlinkt) werden können.

Diese Aussage ist sicher schon etwas hilfreicher, aber insofern noch nicht erschöpfend, weil sie keine Ausreichende Abwehr gegen den oft wiederholten Fehler; Hypertexte seien nichtlineare Texte, leistet. Diese Notwendigkeit eines Zusatzes wird auch bei einem erneuten Definitionsversuch erkennbar. Hypertext ist ein Text, bei dem zusätzlich assoziative Elemente nutzbar sind. Auch diese Definition wäre in erster Näherung sinnvoll. Ihr fehlt aber die Aussage, wie hier assoziiert wird.

Hypertext ist ein Text, bei dem zusätzlich assoziative Elemente nutzbar sind.

Auch diese Definition wäre in erster Näherung sinnvoll. Ihr fehlt aber die Aussage, wie hier assoziiert wird.

 

Um diesen Vorgang hier abzukürzen können wir sagen:
Ein Hypertext ist eine spezielle Form eines Textes, bei dem bestimmte Textteile, Worte oder Buchstaben mit anderen Textteilen im selben Text oder außerhalb des selben durch Softwareunterstützung verknüpft (verlinkt) sind. Damit kann der Text nicht nur Wort für Wort in seinem sequenzielleninhaltlichen Ablauf (oft als linear bezeichnet) gelesen werden, sondern auch in seiner mehr assoziativen Organisation. Damit ist Text eindeutig der Oberbegriff von Hypertexten. In Relation zu den Hypermedia, in denen auch andere Informationsmedien, wie Bilder, Töne oder Programme vernetzt werden können, ist Hypertext auch ein Unterbegriff dieser Kategorie.
 
Hypermedia sind Informationsmedien, bei denen bestimmte Informationen in Form von Computerprogrammen, Bildern, Bewegtbildern, Grafiken, Tabellen, Texten oder Tönen mit anderen Informationsmedien durch Softwareunterstützung verknüpft (verlinkt) sind. Damit können die Möglichkeiten der multimedialen Präsentation von Information voll ausgeschöpft werden, weil jedes Informationsmedium optimal und frei wählbar einzubinden ist.

Ein vereinfachtes Hierarchiebeispiel:
Medien
         Lösungsmedien
                   Gasförmiges Medium
                   Flüssiges Medium
                   etc.
         Transzendentalmedien
         Transportmedien
                   Auto
                   Bahn
                   Brieftaube
                   Flugzeug
                   Informationsmedien =Information + Informationsträger
                            Publikationsmedien
                            Buch
                            Massenmedien
                                      Fernsehen
                                      Rundfunk
                                      Zeitung
                            Individuelle Informationsmedien
                                      Brief
                                      Telefon
                            Multimedia
                                      Hypermedia
                                               Hypertext
Eine solche Hierarchie begrenzt und definiert damit die Bedeutung eines jeden Begriffs durch die Relation zu den anderen. Hier kann man auch von deklarativem Wissen sprechen, wenn sich die Begriffe mit Hilfe der anderen Begriffe begründen lasen. In gewisser Hinsicht ist die gesamte Physik so aufgebaut, in dem sie ihre Elemente durch mathematische Relationen zu anderen Elementen definiert. Die Gleichung: Informationsmedien = Information + Informationsträger ist im Prinzip eine logische Verknüpfung " Information AND Informationsträger", insofern muss ein semiotischer Thesaurus auch diesen Teil der Mathematik, die BoolescheLogik, mit einschließen.
Wir unterscheiden verschiedene Formen des Wissens, ebenso wie verschiedenen Formen des Verstehens.


Die drei Ebenen des Verstehens
 

  1. Informationsebene    – akustisch verstanden, korrekt dekodiert.
  2. Bedeutungsebene     – Interpretation von Wortbedeutungen aus ihrer begrifflichen
                                         Zuordnung in einem vernetzten Thesaurus.
  1. Wissensebene          – Erkenntnis der Begründung einer Information.
Beispiel:
    1. Hypertext – H y p e r t e x t – Buchstaben sind alle richtig empfangen, bzw. das Wort als solches erkannt worden.
    2. Ein Hypertext ist eine spezielle Form eines Textes, bei dem bestimmte Textteile, Worte oder Buchstaben mit anderen Textteilen im selben Text oder außerhalb des selben durch Softwareunterstützung verknüpft (verlinkt) sind. Damit kann der Text nicht nur Wort für Wort in seinem sequenziellen inhaltlichen Ablauf (oft als linear bezeichnet) gelesen werden, sondern auch in seiner mehr assoziativen Organisation. Damit ist Text eindeutig der Oberbegriff von Hypertexten. In Relation zu den Hypermedia, in denen auch  andere Informationsmedien, wie Bilder oder Töne vernetzt werden können, ist Hypertext auch ein Unterbegriff dieser Kategorie.
    3. Hypertexte gewinnen ihre Vorteile aus speziellen Computerprogrammen, die es dem Leser möglich machen, rasch assoziativ, nach den eigenen Interessen durch diese Texte zu springen, um rascher das zu finden, was ihn interessiert. Dabei gibt es verschiedene Möglichkeiten solchen Assoziationen zu folgen. Wichtig ist es im allgemeinen über das Backtracking auch jederzeit die Option zu haben, wieder an einen bestimmten Ausgangspunkt zurückzukehren.
Es ist merkwürdig, dass unsere natürliche Sprache im Bereich des Wissens und Verstehens so unscharf ist. Wir benutzen das Wort verstehen in dreifacher Weise homonym. Erst die Informationstheorie zwingt uns zu einer klareren Abgrenzung, die für den Laien schwierig bleibt, wenn er die fundamentale Bedeutung der Informationstheorie noch nicht durchschaut. Die Tatsache, das Information im eigentlichen Sinne nichts mit Bedeutung zu tun hat, und dass diese grundsätzlich erst durch den semiotischen Thesaurus erkennbar wird, zwingt uns zur tieferen Einsicht in diese Thesaurusproblematik.   Es ist naheliegend, dass wir aus bibliothekswissenschaftlicher Sicht den Terminus Thesaurus verwenden, auch wenn wir deutlich erkennen, dass parallele Begriffsdarstellungen in den Ontologien (programmatisch vernetzt) und natürlich auch in den Gehirnen der Lebewesen (neuronal vernetzte) existieren. Zweifellos ist aber das Modellhafte an der Begrifflichkeit in Thesauri noch am einfachsten zu verstehen. Noch weitaus mehr Homonyme sind beim Wissen zu berücksichtigen: Wissen (deklarativ), Wissen (heuristisch begründet), Wissen (logisch begründet), Wissen (prozedural), Wissen (theoretisch) etc.   Es kann als sicher angesehen werden, dass auch hier bei Laien der Begriff Wissen in höchstem Maße unscharf ist, und dass erst ein semiotischer Thesaurus dazu zwingt, beim Top Term Wissen = begründete Information, diese Bedeutung an alle Unterbegriffe zu vererben. Damit kann beispielsweise Faktenwissen (das oft mit deklarativem Wissen gleichgesetzt wird) nicht nur die Kenntnis von Fakten bedeuten, es muss auch deren Begründung (Sind diese Fakten auch zuverlässig?) vorhanden sein. Somit ist eines der wichtigsten Kennzeichen eines semiotischen Thesaurus, die Definition seiner Begriffe.  
 

Literatur

Ewert, G. und Umstätter, W.: Lehrbuch der Bibliotheksverwaltung. Begründet von Wilhelm Krabbe und Wilhelm Martin Luther, Hiersemann Verl., Stuttgart (1997)

Garfield, E.: Uncitedness III. Essays of an Information Scientist Vol. 1. S.413-414 (1973)  
Laisiepen, K., Lutterbeck, E. and Meyer-Uhlenried K.-H.: Grundlagen der praktischen Information und Dokumentation. Eine Einführung / 2. Auflage; Verl. K. G. Saur, München (1980)
Laisiepen, K., Lutterbeck, E. and Meyer-Uhlenried K.-H.: Grundlagen der praktischen Information und Dokumentation. Hrsg. v. M. Buder, W. Rehfeld, Th. Seeger und D. Strauch. 4.völlig neugefasste Ausg. München (1997)
Price, Derek J. de Solla: Little Science, Big Science Suhrkamp Verl. (1974)
Schwarz, I. und Umstätter, W.: Die vernachlässigten Aspekte des Thesaurus: dokumentarische, pragmatische, semantische und syntaktische Einblicke. NfD Information - Wissenschaft und Praxis 50 (4) S.197-203 (1999) Volltext

Umstätter, W.: Wäre es nicht langsam Zeit, die Informationstechnologie in der bibliothekarischen Sacherschließung etwas ernster zu nehmen? Ein Wort zur RSWK. ABI-Technik 11 (4) S.277-288 (1991) Volltext

Last update: 5.12.2000 © by Walther Umstaetter