Information und Kommunikation
Mit Blick auf das Web-Business ist die erfolgreiche Kommunikation mit dem Kunden ebenso wichtig wie eine konkrete Ordnung spezieller Begriffe und Kommunikationsstufen. Für die Entstehung und den Nutzen von Information und Wissen ist eine strukturierte Aufbereitung entsprechender Daten die Voraussetzung. Das Internet und das darauf basierende Web bieten nicht nur die Grundlage für eine chancenreiche Art der Kommunikation, sondern auch für eine gesellschaftliche und wirtschaftliche Infrastruktur.
Der heutige Gebrauch des Begriffs Information hat vielfach einen technischen, quantifizierten Unterton. Tatsächlich war Information in der Menschheitsgeschichte alles andere als quantifiziert, strukturiert oder gar messbar. Die Etymologie des Begriffs weist auf eine Identität mit dem Wort Bildung hin, denn Information bringt etwas in eine Form und weist ihm ein Bild zu. Eine solche rein qualitative Auffassung wäre jedoch keine brauchbare Grundlage für die heutige Verarbeitung von Informationen in Computern. Der Informationsaustausch zwischen Menschen nutzt Bilder, aber wie sollten Bilder als Input in einen Rechner hineingelangen und als Antworten wieder aus ihm herauskommen?
Bücher, Websites, Vorlesungen, Vorträge und andere Formen des Wissenstransfers setzen eine strukturierte Aufbereitung der Daten voraus, damit beim Empfänger daraus nutzbare Informationen und Wissen entstehen. Besonders wichtig für die Kommunikation mit Interessenten und Kunden im Kontext des Web-Business ist eine klare Strukturierung von Begriffen wie Kommunikationsstufen. Im Fokus steht die Übermittlung von nutzbringenden Informationen und Wissen trotz der Zwischenstufe eines elektronischen Mediums. Diese Bedingung für eine erfolgreiche Kommunikation sagt jedoch noch nichts über den erwünschen Nutzen aus – oder gar den ökonomischen Erfolg im Web-Business.
Eine besonders gelungene menschliche Kommunikation zeichnet sich dadurch aus, dass im Empfänger ein Bild entsteht. Wenn wir den speziellen Fall der Kommunikation zwischen Computern verstehen wollen, ist ein kurzer Ausflug in die Informationstheorie notwendig. Vor allem Claude Elwood Shannon hat das bis dahin recht allgemeine Konzept theoretisch neu erfasst und dadurch Informationen und ihren Austausch zu quantifizierten und berechenbaren Größen gemacht. Er hat zunächst den Begriff Bit eingeführt und darauf basierende Rechenmethoden vorgestellt, durch die der Informationsgehalt einer Nachricht bestimmt werden kann. Das grundlegende Prinzip hat er aus der Physik, genauer aus der Thermodynamik, abgeleitet.
Die Kommunikation selbst ist nicht nur die Übertragung von Nachrichten zwischen einem Sender und einem Empfänger. Kommunikationswissenschaftler messen teilweise den Informationsgehalt von Nachrichten mathematisch, indem sie Informationen quantifizieren − als sei die Sprache oder allgemein das Medium lediglich der Träger von Informationen. Ziel ist es, den Informationsgehalt der Übermittlung mittels eines bestimmten Mediums zu messen. Aus dieser Betrachtungsweise entstehen Begriffe wie Entropie der Informationsübermittlung, die in Analogie zur Thermodynamik den Informationsgehalt von Nachrichten messen soll.
Der Versuch der Mathematisierung von Information lässt tiefe Rückschlüsse auf unsere Kommunikation zu. Zu erwarten ist, dass es einen von dem Medium und den Beteiligten unabhängigen objektiven Informationstransfer gibt. Die Kommunikation wird auf den Austausch von Zeichen reduziert.
Das Internet und die darauf basierende Anwendung des World Wide Web ist ein Medium zum Transport von Zeichen, Daten und Informationen. In dieser Funktion trägt es die Informationen bei den Kommunikationspartnern in Weltbilder, in die es eingefügt wird oder die es sogar verändert oder neugestaltet. Das Medium ist nicht nur ein wesentlicher Teil der Kommunikation, sondern auch die Grundlage für eine gesellschaftliche und wirtschaftliche Infrastruktur.
Der Erfolg im Web-Business wird maßgeblich von der Qualität der Kommunikation zwischen den Partnern geprägt; in ihrem Ursprung war diese auf die Datenverbindung von Maschinen gegründet. Von diesem Ausgangspunkt startet die Computerkommunikation mit erheblichen Nachteilen. Dem reinen Datenaustausch fehlen die Möglichkeiten von Mimik, Gestik, Stimmlage und weiteren nichtverbalen Elementen, die letztlich die Qualität der Kommunikation determinieren. Das erschwert die Fehlerfreiheit und Verständlichkeit der Wissensvermittlung. Der Quantität (den Daten) fehlt die Qualität.
Das Internet ist eine Verbindung von Computern zu einem Netzwerk. Die Basis zur Übermittlung von Informationen sind Daten, die auf Speichern vorgehalten werden. Diese Daten sind praktisch nur von Maschinen lesbar. Sie sind die Grundlage für alle weiteren Aufgaben im Kontext des Web-Business, wie das Listing in Suchmaschinen (die Findability), die Bedienbarkeit von Webseiten (die Usability) oder gar die Kundenbindung (CRM). Die Daten müssen vor der Übertragung mit Arbeit und Know-how zu brauchbaren Informationen verarbeitet werden. Diese Leistung muss auch der Empfänger erbringen − er kombiniert darüber hinaus die Informationen mit seinen Erfahrungen und seinem Weltbild. Erst hierdurch wird daraus Wissen, was für die Zwecke der gezielten und erfolgsorientierten Kommunikation als bewertete Information bezeichnet werden kann.[1]
In der statistischen Mechanik und der Thermodynamik wird der Begriff Entropie für die messbare Zunahme der Unordnung innerhalb eines Systems verwendet. Verschiedene Gedankenexperimente führten zu dem Schluss, den Aufwand für die Informationsbeschaffung ebenfalls mit der Entropie in Verbindung zu bringen.[2]
Shannon definierte die Entropie als die Wahrscheinlichkeit, mit der ein bestimmtes Zeichen eines definierten Zeichensatzes in einem Informationsfluss auftritt. Verkürzt gesagt: Je geringer diese Wahrscheinlichkeit ist, desto höher ist die Entropie (Unordnung) und dadurch der Informationsgehalt des Zeichens. Umgekehrt gilt: Je höher die Ordnung, also die Wahrscheinlichkeit bzw. Vorhersagbarkeit für das Auftreten eines bestimmten Zeichens ist, desto geringer ist sein Informationsgehalt und desto höher seine Redundanz. Einfach ausgedrückt: Wenn ich eine Nachricht (etwa über Funk) unverändert wiederhole, erhöhe ich nicht ihren Informationsgehalt, dafür aber ihre Redundanz und ihre Eindeutigkeit. Wenn Signale zufällig erzeugt und ausgesendet werden, entsteht nur mit einer sehr geringen Wahrscheinlichkeit eine Ordnung, etwa ein Lied oder ein sinnvoller Text. Die Wahrscheinlichkeit wird erhöht, wenn dem Prozess Arbeit oder Know-how hinzugefügt wird, analog der Energiezufuhr zum thermodynamischen System. Im informationstheoretischen Sinne manifestiert sich dieser Zustand der größeren Ordnung in der besseren Verständlichkeit der übertragenen Nachricht. Mit ihr kommuniziert wird im besten Sinne des Wortes kommuniziert.
[1] Bernard A. Lietaer hat ein Zitat von T.S. Eliot aus dem Buch The Rock erweitert um eine Anmerkung von Harlan Cleveland. Eliot fragt: Wo ist die Weisheit, die wir im Wissen verloren haben? Wo ist das Wissen, das wir in der Information verloren haben? (Lietaer 1999: S. 160 ff.) Cleveland ergänzt: Wo ist die Information, die wir in den Daten verloren haben? (ebd.) Die Aufgaben der Suchmaschinen legen folgende Erweiterung nahe: Wo sind die Daten, die uns zu den Informationen und zum Wissen führen? (ebd.)
[2] In seiner Arbeit A Mathematical Theory of Communication verleiht Shannon der Informationstheorie wesentliche Impulse. Mit seinen Überlegungen hat er die Grundlagen für die Entwicklung der Computertechnik und der damit verbundenen Software geschaffen. Die enge Verbindung zu seinem Doktorvater Vannevar Bush weist auf den indirekten Einfluss hin, den er auf die Entwicklung der modernen Kommunikationsnetze und vor allem auch des Internets hatte.