To the homepage of Prof. Dr. Walther Umstätter - / - Back - / - Next



Manuskript zur Publikation in den Nachrichten für Dokumentation 49 (4) S.221-224 (1998)

Über die Messung von Wissen

Englische Version

Zusammenfassung:

Digital arbeitende Computer können als intelligente Meßgeräte für Nachrichten im informationstheoretischen Sinne, d.h. zur Messung von Information, Rauschen, Redundanz und Wissen eingesetzt werden. Alle diese Formen haben ein gemeinsames Maß, das Bit. Computerprogramme zur Redundanzbestimmung oder zur Beseitigung des Rauschens sind vorhanden und noch verbesserungsfähig. Wissen muß dabei als eine außergewöhnlich effiziente Informationskompression angesehen werden. Es ist als begründete Information zu verstehen, aus der wir Ereignisse vorhersagen können. Die Wissensmessung ist von hoher wirtschaftlicher Bedeutung in der Digitalen Bibliothek, für die Wissenschaftsgesellschaft und für die verbesserte Bestimmung der Intelligenz von Computern und Lebewesen.

Etwa am Jahreswechsel 1943/44 arrangierte Norbert Wiener mit John von Neumann und anderen Mathematikern, wie J.W. Tukey, mit Ingenieuren und Physiologen in Princeton (N.Y.) eine kleine Arbeitstagung. Dabei kamen sie zu dem interessanten Ergebnis, daß es vernünftig wäre Information durch eine Zahl von Jas und Neins zu Messen und diese Einheit Bit (binary digit) zu nennen. Es war die Zeit des Zweiten Weltkrieges, in der die Beteiligten an militärisch relevanten Problemen arbeiteten. Im Jahre 1949 haben dann C. Shannon und W. Weaver "The Mathematical Theory of Communication" veröffentlicht, die in der Folgezeit das Denken von zahlreichen Wissenschaftlern stark beeinflußte. Natur- und Geisteswissenschaft fanden damit in der Interdependenz von Entropie und Information ein homologes Fundament.

Der Versuch der International Standard Organization (ISO) 1975 die Einheit Bit durch die Shannon-Einheit zu ersetzten, um den Unterschied zwischen einem binary digit und einem binary element deutlich zu machen, war rückblickend betrachtet nicht sehr erfolgreich.

Nach knapp zwanzig Jahren (10.1.1963) wurde im sogenannten "Weinberg Report", dem  "Report of The President's Science Advisory Commitee USA" mit dem Titel: "Science, Government, and Information", der von J.F. Kennedy in Auftrag gegeben worden war, die Menge an "Information" in der Library of Congress mit etwa 1013 Bit bestimmt. Das Komitee hatte dreizehn amerikanische Wissenschaftler und Spezialisten, unter denen sich auch J.W. Tukey befand, und wurde von Alvin M. Weinberg, vom Oak Ridge National Laboratory, geleitet.

Dies war eine durchaus folgenschwere und revolutionäre Betrachtung für das Bibliothekswesen, sowie für die Dokumentationszentren der damaligen Welt. Aus Protest gegen die Arbeit dieser Kommission hat ein Bibliothekar sogar eine öffentliche Bücherverbrennung des Reports vorgenommen. Trotzdem entstanden Datenbanken wie Chemical Abstracts, Biological Abstracts, Eric, Medlars, ScieSearch etc. und machten damit wichtige Teile der Wissenschaft retrievalfähig.

Allerdings war die Bestimmung des Informationsgehaltes bedauerlicherweise falsch:
1. Wurden nur die Buchstaben der Textinformation bestimmt. Grafiken, Bilder, Bewegtbilder, Tonaufzeichnungen oder chemische und physikalische Eigenschaften der Speichermedien blieben unberücksichtigt. Damit blieben Milliarden von Bits unberücksichtigt. Der Grund für diese sehr begrenzte Betrachtungsweise ist natürlich bekannt und leicht einsehbar. Die Computer der damaligen dritten Generation vollzogen gerade den Wechsel von den mathematischen Instrumenten zu Speicher- und Retrievalsystemen für ASCII Zeichen.
2. Befindet sich in Bibliotheken nicht nur Information (Kemp, D. A. 1976). Da ist ein hoher Anteil an Redundanz, an Rauschen und auch an Wissen in den  1013 Bit enthalten. Ohne große Probleme kann die gespeicherte Textmenge um das Zehn- oder Hundertfache reduziert werden. Dies liegt daran, daß der Begriff Information bis heute oft mit der informationstheoretischen Nachricht verwechselt wird.

Wissen ist durch Erfahrung, Logik oder auch durch Kausalität begründete Information (Umstätter, W. 1992). Es unterliegt somit einer wichtigen Qualitätskontrolle (Ewert, G. und Umstätter, W.1997). Alle Formen von Nachrichten, d.h. Information, Rauschen, Redundanz und Wissen sind in Bit meßbar, da sie beliebig ineinander übergehen können. Der digital arbeitende Computer ist somit ein exzellentes Meßgerät für jede Form von Nachrichten, mit dem wir, bei geeignetem Einsatz, auch die verschiedenen Nachrichtenformen die sich in den Bibliotheken befinden eindeutig unterscheiden können.

Die klassische Redundanz ist eine Wiederholung und kann durch den Vergleich von Zeichenketten und damit nur durch Erinnerung ermittelt werden. Wir können hier von einer a posteriori Redundanz sprechen, in deren Rahmen wir verschiedene Arten von error detection codes und error correction codes unterscheiden. Unsere natürliche Sprache ist eine komplizierte Verquickung beider.

Redundanz wurde oft als weitschweifig oder auch als überflüssig verstanden. Sie ist allerdings fundamental wichtig für den Wahrheitsgehalt einer Information, für die Sicherheit bei der Archivierung, für das beschleunigte Auffinden in Datenbanken und auch für die Informationslogistik, bei der es darauf ankommt, die richtige Information, zur richtigen Zeit, am richtigen Ort für ökonomisch vertretbare Kosten vorzuhalten. Ein Beispiel für den systematischen Einsatz der Redundanz finden wir im sogenannten Hamming-Code, der keinesfalls weitschweifig oder gar überflüssig ist.

Eine andere, bisher völlig vernachlässigte Form der Redundanz, ist im Wissen enthalten. Sie kann als a priori Redundanz verstanden werden. Im Sinne von bedingten Wahrscheinlichkeiten, wie etwa Markov Prozessen, Regeln, Strukturen oder Gesetzmäßigkeiten, können mehr oder minder wage Vorhersagen als Hypothesen für Inter- bzw. Extrapolationen verwendet werden. Bei ihrer Bestätigung sprechen wir von echten Theorien. Im günstigsten Falle erzeugt der Empfänger von Nachrichten aus diesen heraus ein Inneres Modell (Umstätter, W. und Rehm, M. 1981), das es ihm erlaubt neu eintreffende Informationen vorherzusagen, so wie es die lebenden Systeme aufgrund der Biogenetischen Evolutionsstrategie (Umstätter, W. 1981; Umstätter, W. and Rehm, M. 1984) seit Jahrmillionen bereits tun.

Auf der Grundlage der Informationstheorie ist Wissen somit durch den Vergleich einer vorhergesagten Information, von einem bestimmten Sender, mit der wirklich eintreffenden, meßbar. Es kann auf diese Weise Bit für Bit exakt bestimmt werden. Ein vergleichsweise geringer Teil an korrekter Vorhersage kann allerdings auch durch Zufall erhalten werden. Dieser Teil ist wahrscheinlichkeitstheoretisch bestimmbar und kann die Basislinie bilden. Er ist allerdings nicht vernachlässigbar und spielt eine wichtige Rolle für lernende Systeme und folglich auch für die Biogenetische Evolutionsstrategie. Im Gegensatz zur a priori und zur a posteriori Redundanz ist echtes Rauschen per definitionem nicht vorhersagbar.

Wissen, in einem Computer zur Wissensmessung gespeichert, kann das Wissen eines Expertensystems, aber auch das simulierte Wissen eines Menschen sein. In diesem Zusammenhang  sei auch auf den Unterschied zwischen Modellen und Simulationen verwiesen.

Informationstheorie ist interessanterweise eine extrem objektive Erklärung für eine im Höchstmaße subjektive Kommunikation zwischen einem bestimmten Sender und seinem Empfänger. Beide benutzen identische Zeichensätze oder Codierungen. Anderenfalls fände keine wirkliche Kommunikation zwischen ihnen statt. Bei nur ähnlichen Codierungen muß der Empfänger die ihn erreichenden Zeichen so zu interpretieren versuchen, daß er deren wahre Bedeutung erahnen kann. Diese Interpretation liegt bei genauer Betrachtung bereits außerhalb des eigentlichen Modells der Informationstheorie. Das Modell der Kommunikation ist damit so einfach und so exakt, daß es auf alle Arten von "Kommunikation" zwischen Atomen, Planeten, Individuen oder Gesellschaften gilt. Die Grenzen seiner mathematischen bzw. rechnerischen Präzision sind ausschließlich durch die Klare Definition der Codierung beim Sender, die Störungsgrößen beim Übertragungskanal und die Decodierung beim Empfänger gegeben. Diese Genauigkeit gilt entsprechend auch für die Exaktheit der Messung des Wissens.

Wissen ist vorausschauend und probabilistisch. Sein Wert ist hoch, wenn die Voraussagen, bezogen auf den Übertragungskanal korrekt sind, im Gegensatz zur Information, die possibilistisch ist, da die unwahrscheinlichsten Zeichen den höchsten Informationsgehalt tragen. Um Mißverständnisse zu vermeiden sei angemerkt, daß die Voraussage einer Information natürlich auch eine Information aus der Geschichte sein kann, wenn wir beispielsweise aus unserem heutigen Wissen heraus Ereignisse der Frühzeit erklärbar machen.

Eines der größten Probleme bei der informationstheoretischen Nachrichtenmessung ist die Reduktion bzw. Beseitigung des Rauschens, ohne Informationsverlust. Durch eine entsprechende Einteilung von Klassen können wir variierenden Objekte tolerant zu Redundanzen zusammenfassen. Das bedeutet Kopien mit kleinen Abweichungen, Mutationen oder geringen Defekten als solche zu betrachten. Bei genauerer Betrachtung müßten sie natürlich als different unterschieden werden. Das gleiche gilt für die Übereinstimmung bei der Wissensmessung, bei der es auf die Präzision ankommt, mit der wir die erwartete und die eintreffende Information betrachten. Wenn wir Fehler entsprechend tolerieren, ist eine Vorhersage immer richtig - aber in der realen Welt ist unsere Umwelt bekanntlich nicht immer so großzügig.

Betrachten wir beispielsweise die Daten die einen Empfänger erreichen, und die ihn über eine einfache lineare Entwicklung informieren. Bei der Tolerierung von bis zu 10 Prozent Abweichungen mögen alle Vorhersagen korrekt sein. Damit wäre das Wissen in diesem Falle zu 100% korrekt. Im Falle einer Steigerung der Kategorisierungsstrenge auf nur 1 Prozent Abweichung, würden dagegen die meisten Vorhersagen als falsch einzuordnen sein, und das maß an Wissen könnte beispielsweise auf 20 % abfallen. Dies ist allerdings ein typisches Problem des Rauschpegels bei der herkömmlichen Bestimmung von Kanalkapazitäten in der Informationstheorie. Mit wachsendem Rauschen in einem Übertragungskanal steigt der Bedarf an Redundanz. Eine weitere Form des Rauschens sind Signale,  die zwar empfangen aber nicht als Zeichen decodierbar sind. Alle Signale, die weder Information noch Redundanz enthalten sind als Rauschen zu kategorisieren.

Die Messung von Wissen ist zweifellos ein dringendes desideratum im Bereich der Wissensverwaltung, in der Aus-, Fort- und Weiterbildung und insbesondere in der Wissenschaftsgesllschaft. Speziell im internationalen Wissenstransfer und in der Bestimmung des finanziellen Wertes von  Bibliotheken spielt die Quantifizierung von Wissen eine unbestreitbar essentielle Rolle.

Im Ausbildungsbereich ist es eine seit langem genutzte Technik, durch Examen und Prüfungsarbeiten bestimmte erlernte Information abzufragen. Allerdings beinhalteten diese Fragen in vielen Fällen nur die Wiederholung von Fakten aus dem Gedächtnis. Es war teilweise ein Abruf von Daten, vergleichbar einem Retrieval in einer Datenbank. Prüfungen dieser Art sind bekanntlich äußerst schlechte Indikatoren für echtes Wissen, auch wenn sie in bestimmten Fällen durchaus notwendig sein können. Sie sind reine Tests auf ein leistungsfähiges Gedächtnistraining. Im Gegensatz dazu erwarten wir bei echtem Wissen, die Fähigkeit aus der Gespeicherten Information heraus, weitere Informationen erklären bzw. begründen zu können. Insofern ist die hier vorgeschlagene Methode zur Messung von Wissen nicht neu, sondern lediglich ein Beitrag zu ihrer Präzisierung auf der Grundlage der Informationstheorie.

Eine andere Frage, die sich aus den bisherigen Überlegungen ergibt, betrifft die Entstehung von Wissen. Hier dürfte die Biogenetische Evolutionsstrategie von besonderem Interesse sein. Sie extrahierte Wissen aus den Nachrichten ihrer Umwelt heraus und erhielt so die heute noch existenten Individuen am Leben. Dieses Wissen ist in Inneren Modellen gespeichert, und zeigt sich nicht zuletzt darin, daß die Ontogenie der einzelnen Lebewesen die Phylogenie, auf der sie beruhen, in abstrahierter Form  wiederholen. Wir kennen zwei Formen von Wissen, die Empirie bzw. das Erfahrungswissen mit seinen induktiven Elementen und das eigentliche Kausalwissen bzw. die logische Folgerung mit seinen deduktiven Elementen.

Es konnte 1981 von Umstätter, W. und Rehm, M. gezeigt werden, daß Bibliotheken das versteckte Wissen über innere Modelle in belebten Systemen, so wie es über die Biogenetische Evolutionsstrategie entstanden ist, bereits enthielten. Die Konsequenz dieser Betrachtung war, daß diese Strategie nicht nur zu einer Ansammlung von Information in lebenden Systemen, sondern zu Wissen über die jeweilige Umwelt führt. Daraus folgt die Fähigkeit  lebender Systeme, sich vorausschauend zu verhalten (Umstätter, W. 1981). Es ist äußerst Beeindruckend zu sehen, daß die Information, das Rauschen, die Redundanz und das Wissen, daß auf der Erbsubstanz DNS gespeichert ist, auf einer Moleküllänge von 1 mm bis zu 1 m, je nach Art, Platz findet. Dies ist eine sehr begrenzte Zunahme an Speicherkapazität, wenn man die Komplexität zwischen einem Bakterium und dem Homo sapiens vergleicht (Umstätter, W. 1990). Die Erklärung hierfür kann nur in einer höchst effektiven Informationskompression liegen.

Um es deutlich zu sagen: Die Messung von Wissen darf natürlich nicht mit der strategischen Erzeugung von Wissen verwechselt werden. Hier handelt es sich um die Frage der Quantität, nicht der Qualität. Trotzdem ist es hilfreich die Konsequenzen der Entstehung von Wissen für die Konstruktion von Wissensbasen zu betrachten, mit denen die Messung erfolgt. Die zu messenden Werte sind nicht absolut. Sie müssen im Sinne eines Reinigungsvorgangs, vergleichbar der Purifizierung chemischer Substanzen, gesehen werden. Entsprechend  "Occams Razor" minimieren wir die Bits pro Theorie, während wir uns bemühen, die korrekten Vorhersagen zu maximieren. Information ist unendlich und seine Skalierung erfolgt bekanntlich in einem logarithmischen Maßstab (Umstätter, W. 1992). Dagegen ist die Frage der Endlichkeit bzw. Unendlichkeit von Wissen eine noch offene Frage. In seiner Tendenz scheint Wissen allerdings begrenzt, obwohl diese Begrenztheit eher von den Nachrichten die wir erhalten abhängig zu sein scheint (Rapoport, A. 1953). Dabei ist zu bedenken, daß die Informationstheorie mit einem grundsätzlich endlichen Zeichensatz unendlich viele Informationen erzeugen kann.

Für den mittleren Informationsgehalt (H), die von Redundanz greinigte Information (Ib), für Nachrichten allgemein (Mb), das Rauschen (Nb), die Redundanz (Rb) und das Wissen (Kb), alle in Bits gemessen, können wir formulieren.

 Ib = Hmax = maximierter Informationsgehalt
 
 Ib = Mb - (Nb + Rb)
 
 

Um zunächst gereinigte Information zu erhalten, müssen Nachrichten durch Filter vom Rauschen befreit werden. Solche Filter benutzen wir z.B. bei der sogenannten Datenkompression von Bildern, in der beispielsweise eine annähernd weiße Fläche zu einer glatt weißen Fläche abstrahiert wird. In Realität ist dies also eine Datenabstraktion. Für die Extraktion von Redundanzen, benutzen wir eine echte Datenkompression, in dem wir alle Formen der Wiederholung, ohne Informationsverlust, ermitteln. Dagegen bedeutet Wissen eine echte Informationskompression.

Walther Umstätter

Ewert, G. und Umstätter, W.: Lehrbuch der Bibliotheksverwaltung. Hiersemann Verl. Stuttgart (1997)
Kemp, D. A.: The Nature of Knowledge - an introduction for librarians (Clive Bingley, London 1976)
Rapoport, A.: Operational Philosophy - Integrating Knowledge and Action (Harper and Brothers, New York, (1953). Umstätter,W.  und Rehm, M.: Einführung in die Literaturdokumentation und Informationsvermittlung (Saur Verl., München, 1981).
Umstätter, W.: Kann die Evolution in die Zukunft sehen? Umschau 81 (17) 534-535 (1981).
Umstätter, W. und Rehm, M.: Bibliothek und Evolution. Nachr. f. Dok. 35 (6) 237-249 (1984).
Umstätter, W.: Naturw. Die Wissenschaftlichkeit im Darwinismus. Rundsch. 21 (9) Beil.: Biologie Heute 4-6 (1990).
Umstätter, W.: Die evolutionsstrategische Entstehung von Wissen. In: Fortschritte in der Wissensorganisation Band 2. Hrsg. Deutsche Sektion der Internationalen Gesellschaft für Wissensorganisation e.V. S.1-11, Indeks Verlag (1992)
Umstätter, W.: Die Skalierung von Information, Wissen und Literatur. Nachr. f. Dok. 43 (4) 227-242 (1992a).


Last update: 1. September 1998 © by Walther Umstaetter