Schattenblick →INFOPOOL →NATURWISSENSCHAFTEN → TECHNIK

INFORMATIONSTECHNOLOGIE/622: Quo vadis? Vom Telegramm zum www, web 2.0 und 3.0 (Freiburger Uni-Magazin)


Freiburger Uni-Magazin - 5/Oktober 2009

Wissenschaftliche Gesellschaft Freiburg im Breisgau
Informatik - quo vadis? Vom Telegramm zum www, web 2.0 und 3.0
Vortrag zur Festsitzung von Prof. Hans Burkhardt:
Was ist "Information"? - von Claude Shannon bis heute

Von Christiane Gieseking-Anz


Und weiter geht die Suche, wer kennt das nicht. Manchmal nach dem Schlüssel, öfter nach Antworten im Web. Die endlose Geschichte vom Suchen und Finden. Die Zeit, die Menschen mit Suchen vor dem Bildschirm verbringen, dürfte sich proportional zu den dort vernetzten Datenmengen verhalten. Techniken zu entwickeln, die nicht nur massenweise Material für unsere Suche liefern, sondern selbst daraus Antworten erstellen, die Aufgabe beschäftigt viele kluge Menschen. Zu ihnen gehört auch Prof. Hans Burkhardt vom Institut für Informatik der Uni Freiburg.


In seinem Vortrag: Was ist "Information?" erläutert und demonstriert er den Gästen der Wissenschaftlichen Gesellschaft, welche Denkleistungen und technischen Umsetzungen die Grundlage bilden für unseren mit Telefonen, Handys, Internet, Digitalkameras, CDs, DVDs, YouTube, Wikipedia und Google gefüllten Alltag. Die Zuhörer erfahren, wie sich die junge Wissenschaft Informatik und ihr Kerngebiet - die Information - entwickelt haben und dass ein Paradigmenwechsel ansteht, der unsere Welt mit einem "web 2.0" und "web 3.0" wiederum gründlich verändern könnte.

Die Wissenschaftliche Gesellschaft lädt alle Interessierten herzlich ein zu ihrer Festsitzung mit Prof. Dr. Hans Burkhardt, Lehrstuhl für Mustererkennung und Bildverarbeitung am Institut für Informatik der Uni Freiburg. Wer die Frage stellt: "Was ist Kommunikation?", ahnt sicher, die Antworten darauf gehen weit auseinander. Je nach Alter und Beruf spielt Technik dabei eine immer größere Rolle, um eine Antwort verlegen wäre kaum jemand.

Da kann ein Informatiker Licht ins Dunkel bringen. Im Gegensatz zu anderen Fachbereichen verfügt er über einen unangefochtenen Informationsbegriff und eine eindeutige Informationstheorie. Die lieferte ein amerikanischer Nachrichtentechniker, der von Haus aus Mathematiker war.


Shannon - der Vater des Bit

Die Erfolgsgeschichte der modernen Kommunikationstechnologie beginnt 1948 mit der Publikation eines Papers "A Mathematical Theory of Communication" des amerikanischen Mathematikers Claude Shannon, das schon ein Jahr später als Buch seinen Siegeszug fortsetzte - mit dem leicht geänderten Titel "The Mathematical Theory of Communication". Damals waren Shannons Ergebnisse revolutionär, denn er definierte Information als physikalische Größe, messbar in der Maß- und Zähleinheit "Bit". Seine Vorgaben ermöglichten es, den Aufwand für die technische Übertragung von Information mathematisch exakt zu berechnen, die Effizienz von Codes, die Kapazität von Speichern und Übertragungskanälen zu bestimmen. Das Bit als Folge von elektrischen Impulsen, die durch einen Binärcode ausgedrückt werden, machte unterschiedliche Darstellungsformen von Information vergleichbar und erwies sich als grundlegend für die Entwicklung der digitalen und multimedialen Informationstechnik.

Shannon arbeitete für die Bell Telephone Laboratories, seine Theorie gehört in die Entwicklung der elektrischen Nachrichtentechnik mit Telegrafie, Telefonie, Funk und Fernsehen in der ersten Hälfte des zwanzigsten Jahrhunderts. Er wollte wissen: Wie lässt sich eine Nachricht korrekt komprimieren und verlustfrei durch elektronische Kanäle übermitteln?


Die Anfänge: korrekt reduzieren und transportieren

Dazu nutzte er Methoden der Statistik und Wahrscheinlichkeitsrechung. "Je unwahrscheinlicher eine Nachricht, desto höher ihr Informationsgehalt", lautet einer der viel zitierten Sätze seiner Theorie, in der es darum geht, wie viel Platz sich durch eine Umformung der Information in einen anderen Code gewinnen lässt. Je häufiger und allgemeiner eine Nachricht oder ein Zeichen ist, desto weniger Bits sind nötig für die Codierung. Berechnet man die Buchstaben im deutschen Alphabet, so kommt das E sieben Mal so oft vor wie M oder O. Ein Q müsste gegenüber dem E etwa mit zehn statt zwei Bits realisiert werden. Je ungewöhnlicher die Nachricht oder das Zeichen desto höher die Anzahl der Bits und desto geringer die Möglichkeit, verlustfrei zu reduzieren. Der kürzeste binäre Code für eine gegebene Nachricht oder ein Zeichen wird seit Shannon als Entropie definiert. Bei einer Reduktion auf das Entropiemaß wird die Redundanz vollständig aus einer Nachricht entfernt.

Noch eine wichtige Frage stellte sich Shannon: Wie kann ich eine auf das Minimum reduzierte Information durch einen nie hundertprozentig effizienten Kanal schicken, ohne dass beim Empfänger durch die Übertragung ein Verlust entsteht? Mit gezielten Zusatzinformationen, die der komprimierten Nachricht wieder beigefügt werden, gelang es ihm, auf einer anderen Ebene die Richtigkeit der Übermittlung zu prüfen und zu korrigieren und dadurch Information ganz ohne Verluste zu transportieren. Kanalcodierung und Fehler korrigierende Codes, wie sie sich heute auf jeder CD befinden, gehen in ihren Ursprüngen auf seine Theorie zurück.

Shannon beschäftigte sich damals allerdings ausschließlich mit der formalen, syntaktischen Ebene der Zeichen, seine Aussagen beziehen sich auf korrektes Übertragen eines Datenstroms und sagen nichts aus zu semantischer Stimmigkeit oder Sinngehalt.

Rein syntaktisch sind die beiden Nachrichten korrekt: 1. Die rote Ampel schaltet auf grün. 2. Die rote Ampel schaltet auf blau. Bei Shannon hätten beide Sätze die gleiche Entropie, den gleichen Informationsgehalt, obwohl der Überraschungswert der roten Ampel gegen null tendiert, semantisch aber die blaue Ampel unser Weltwissen auf den Plan ruft.

"In der Informationstechnik hat der Begriff der Information keinen direkten Bezug zu Semantik, Bedeutung und Wissen, da sich diese Eigenschaften mit informationstheoretischen Verfahren nicht messen lassen", sagt Wikipedia zum Thema. Das wird sich ändern, meint Prof. Burkhardt. Für ihn ist die moderne Informatik auf dem Weg zur Semantik.


Die Zukunft: von der syntaktischen zur semantischen Reduktion

An den modernen Methoden der Bildcodierung lässt sich verdeutlichen, welche Fortschritte die Informatik seit Shannon verzeichnen kann. Eine Folge des Drucks, die immens wachsenden Informations- und Datenfluten hantieren und reduzieren zu müssen, ist der kalkulierte Übertragungsverlust. Codierungen wie zum Beispiel JPEG oder MPEG verwenden komplexe Bildmodelle, die die Korrelation zwischen Bildpunkten und deren Verbundwahrscheinlichkeiten berücksichtigen. Sie sind nicht exakt wie Shannons Entropiecodierung, erzielen aber wesentlich höhere Bilddatenreduktionen. Diesen viel radikaleren Reduktionen gehört die Zukunft.

Die kalkulierten Verluste sind dem menschlichen Wahrnehmungsvermögen angepasst. Jedes Medium hat dabei andere Grenzen, so lässt sich Musik bis 9fach, Sprache bis 13fach durch entsprechende Codierung technisch reduzieren, ohne dass der Mensch es bemerkt. Bei Bildern kann das Volumen um das 20 bis 100fache und bei Videos um das 300 bis 1.000fache minimiert werden. Ein Kinofilm passt in MPEG-4 auf eine halbe CD (unkomprimiert wären es 157 CDs!).

Damit sind aber auch die Grenzen der syntaktischen Datenkompression ausgeschöpft. Ganz andere Dimensionen eröffnen sich der Informatik, wenn sie die rein syntaktische Ebene überschreitet und sich dem semantischen Anteil der Nachricht öffnet.

"Die moderne Informatik ist auf dem Weg zur Semantik und schon teilweise angekommen", erklärt Prof. Burkhardt auf Nachfrage. Am Beispiel der Bildsuche und -codierung zeigt er in seinem Vortrag neue Möglichkeiten und Potenziale seines Forschungsschwerpunktes, der semantischen Bildinterpretation, auf.

Prof. Burkhardt betreibt Grundlagenforschung und entwickelt mit großem Erfolg benutzerdefinierte Suchmaschinen wie die für Briefmarken, Wasserzeichen in alten Drucken oder eine Suchmaschine für Proteine, die im Exzellencluster "bioss" eingesetzt wird. Dabei geht es um dreidimensional modellierte Proteine und etwa die Frage, ob das vorliegende in einer Datenbank mit 60.000 Proteinen schon vorkommt. Das Vorläuferprogramm brauchte sieben Tage, um die Frage zu beantworten, sein semantisch gestütztes Programm benötigt vier Minuten dazu.


Was tun mit all dem digital

erfassten Weltwissen? Das digitale Universum vergrößert sich um den Faktor 10 alle 5 Jahre. Wie geht man mit solchen Datenmengen um? Immer perfekter suchen, sortieren, komprimieren! Die Zukunftsvision eines semantischen Webs soll die Lösung bringen, um den Umfang der Informationen im "www" bändigen zu können. Die Erwartungen sind groß.

Während Google noch eine syntaktische Suchmaschine ist, die Schlagworte nach Verteilung und Häufigkeit sortiert, entstehen immer mehr Google-Konkurrenten, die auf verschiedene Weise versuchen die semantische Ebene einzubeziehen. Dazu gehört auch die vom britischen Ausnahmemathematiker Stephen Wolfram als 'Computational Knowledge Engine' groß angekündigte Wissens- oder Antwortmaschine Wolfram Alpha. Wolfram Alpha soll Fragen beantworten können und die Antworten dazu berechnen. Google wirft demgegenüber Dokumente aus, die vielleicht die Antwort enthalten, Wikipedia liefert einfach eine gigantische Wissensdatenbank.

Das Semantic Web wiederum ist eine Vision von Tim Berners-Lee, dem Erfinder des World Wide Web. Als nächsten Schritt in der Entwicklung des Internets sieht er das Semantic Web als ein Netz von Daten, die direkt und indirekt von Maschinen verarbeitet werden können, nachdem sie von Menschen dazu vorbereitet wurden. Im Semantic Web werden die Daten selbst Teil des Web, so dass sie unabhängig von Applikationen, Plattformen oder Domains und nicht mehr nur als eine Unzahl von Informationen in Form von Dokumenten vorhanden sind.

Das Semantische Web wird oft mit dem "web 2.0" in Zusammenhang gebracht. Während ersteres das Ziel hat, die Qualität vorhandener Informationen auf semantischer Ebene zu verbessern, also technologiebezogen ist, befasst sich das "web. 2.0" mit gesellschaftlichen Phänomenen. Eine Zusammenführung der Technologie des Semantischen Web mit sozialen Ansätzen des "web 2.0" wird auch als "Social Semantic Web" oder als "web 3.0" bezeichnet. Wer mehr erfahren möchte über Gegenwart und Zukunft in der Informationsverarbeitung, sollte den Vortrag von Prof. Burkhardt nicht verpassen.


Festsitzung

Freitag, den 20. November 2009, 18 Uhr c.t.,
in der Aula der Universität Kollegiengebäude I

Programm
Begrüßung durch den Vorsitzenden der Wissenschaftlichen Gesellschaft Prof. Dr. Eberhard Schäfer
Grußadresse des Rektors der Albert-Ludwigs-Universität Freiburg Prof. Dr. Hans-Jochen Schiewer
Festvortrag Prof. Dr.-Ing. Hans Burkhardt,
Institut für Informatik:
Was ist "Information"? - von Claude Shannon bis heute

Anschließend findet die Mitgliederversammlung der Wissenschaftlichen Gesellschaft statt.


Wissenschaftliche Gesellschaft Freiburg im Breisgau

ist eine Körperschaft des öffentlichen Rechts. Sie wurde 1911 gegründet mit der Aufgabe, die wissenschaftliche Forschung jeder Art an der Albert-Ludwigs-Universität Freiburg zu fördern. Zurzeit stehen pro Jahr rund 180.000 Euro an Fördermitteln zur Verfügung.

Vorsitzender: Prof. Dr. Eberhard Schäfer
Tel. 0761 203-2683, Fax 0761 203-2629
Eberhard.Schaefer@biologie.
uni-freiburg.de
Stellv. Vorsitzender: Dr. Michael Heim

Publikationen: Christiane Gieseking-Anz
Geschäftsstelle: Dubravka Fleck,
Hermann-Herder-Str. 9, 79104 Freiburg
Zeiten: Mo-Do 8.30-12.30 Uhr
Tel. 0761 203-5190, Fax 0761 203-8720
wissges@uni-freiburg.de
Infos und Förderrichtlinien unter
www.wissges.uni-freiburg.de


*


Quelle:
Freiburger Uni-Magazin Nr. 5/Oktober 2009, Seite 30-31
Herausgeber: Albert-Ludwigs-Universität Freiburg,
der Rektor, Prof. Dr. Hans-Jochen Schiewer
Redaktion: Eva Opitz (verantwortlich)
Kommunikation und Presse
Fahnenbergplatz, 79098 Freiburg,
Tel.: 0761/203-4301, Fax: 0761/203-4278
E-Mail: info@pr.uni-freiburg.de

Freiburger Uni-Magazin erscheint sechsmal jährlich.
Jahresabonnement 13,00 Euro.


veröffentlicht im Schattenblick zum 19. November 2009