Die großen Finder im Web - JAXenter

Die großen Finder im Web

Susan Tuchel

Heute beherrscht der Suchmaschinengigant Google mit einem Marktanteil von mehr als 90 Prozent das Geschäft mit dem Finden von Informationen im World Wide Web. Doch das – so aktuelle Studien – muss nicht so bleiben. Die Wechselbereitschaft der Nutzer ist groß und neue Technologien versprechen genauere Treffer. Ebenfalls auf dem Vormarsch: Vertikale Suchmaschinen, die gezielt bestimmte Nischen abdecken.

Seit einigen Jahren steht der Begriff sogar als Synonym für das Recherchieren im Internet im Duden: „googeln“. Die populärste Suchmaschine der Welt durchforstet nach eigenen Angaben mittlerweile mehr als zwölf Milliarden Websites. Dabei arbeitet Google ebenso wie andere Suchdienste nach dem Prinzip der Volltext-Indexierung. Gezählt wird nur, wie oft Wörter oder Wortkombinationen in einem Dokument vorkommen. Je häufiger der Begriff auf einer Seite zu finden ist, desto höher erscheint sie im Ranking der Trefferliste.

Einen vorderen Platz sichern sich so Websites, die den Suchbegriff in Überschrift oder URL haben oder Fotos zum Thema enthalten. Die Bedeutung eines Treffers ergibt sich also aus Masse statt Klasse. Doch breit aufgestellte Universalsuchmaschinen wie Google stoßen nach Meinung von Wissenschaftlern schon bald an ihre Grenzen. Denn ihr Problem ist die Bewältigung der Größe und Vielfalt des World Wide Web. So hat Prof. Dr. Ing. Christoph Lindemann von der Universität Leipzig kürzlich in einer Web-Measurement-Studie des deutschsprachigen Webs entdeckt, dass inzwischen allein in der Top-Level-Domäne .de mehr als vier Millionen Domains mit Inhalten (d. h. Websites) online geschaltet sind – zum großen Teil mit veralteten und häufig auch automatisch erzeugten Inhalten. „Für den Nutzer sind die Trefferlisten der Suchmaschinen deshalb in der Regel irrelevant“, so Lindemann.

Im Web 3.0 geht es um die Semantik

Warum die gelieferten Ergebnisse oft an den Fragen der Webuser vorbeigehen, liegt an der Software der Suchmaschinen. Für diese sind Worte nur leere Hülsen, die sie wiedererkennen, aber nicht verstehen können. Erst wenn diese Worthülsen – über so genannte Metadaten – mit ihren Bedeutungen und Kategorien verknüpft werden, können die Systeme intelligent damit umgehen. Computerlinguisten versuchen deshalb, ganze Bedeutungsnetze zu erzeugen und so Zusammenhänge herzustellen. „Wir wollen eine Suchmaschine programmieren, die von vielen verschiedenen Quellen Informationen sammelt und in der Lage ist, diese zu aggregieren – so, dass neue Information entsteht“, beschreibt Prof. Dr. Volker Markl sein Ziel. Seit Juni 2008 leitet der Spezialist für Datenbanken und Cloud Computing das Fachgebiet Datenbanksysteme und Informationsmanagement der Technischen Universität Berlin und will schon bald erste Ergebnisse vorstellen.

Beim Cloud Computing laufen viele Rechner parallel, damit die Antworten der Suchmaschinen nicht zu lange auf sich warten lassen. Mit einer solchen Anwendung könnten die Wissenschaftler auch Marktforschung betreiben oder eine Art Stimmungsbarometer schaffen. Vor einer Wahl ließen sich damit beispielsweise die Postings in Weblogs nach deren aktuellen Meinungen untersuchen und auswerten, oder anhand der Einträge in Foren könnte versucht werden, den nächsten deutschen „Superstar“ vorherzusagen.

Bei der so genannten semantischen Erweiterung des World Wide Web soll die Suche nach Informationen differenzierter und präziser werden. Damit die Computer diese logischen Verknüpfungen leisten können, werden die Begriffe und Zusammenhänge, in denen der Mensch über einen bestimmten Problembereich nachdenkt und redet, von den Informatikforschern so aufbereitet, dass Korrelationen für die Maschine erkennbar werden. Aus der praktischen Anwendung des Modells entstehen Begriffs- und Ordnungsbestimmungen, so genannte Ontologien. Sie sind die Grundlage für das semantische Web und werden so angelegt, dass sie kontinuierlich – zum Teil automatisch – mit dem angewandten Sprachschatz des Fachgebiets aktualisiert und weiter ausgebaut werden können.

Antwort- statt Suchmaschinen

Zu den Pionieren auf diesem Gebiet gehört eine Forschungsgruppe am Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) der Universität Karlsruhe unter Leitung von Professor Dr. Rudi Studer. Zusammen mit der Firma ontoprise, zu deren Gründern der Wissenschaftler gehört, wird in verschiedenen Projekten am Web der Zukunft gearbeitet. „Das Web 3.0 ist eine Kombination der Web-2.0-Trends mit dem semantischen Web“, erläutert ontoprise-Geschäftsführer Hans-Peter Schnurr. Im Web 2.0 – so seine Erklärung – werden viele Nutzer zum Erstellen von Inhalten eingeladen und darin unterstützt. Allerdings ist das dabei entstehende Wissen in dieser Form für den Computer nicht verständlich und nicht zu verarbeiten. Web-3.0-Technologien machen dagegen die Inhalte durch Verschlagwortung mithilfe von Ontologien und Metadaten maschinenlesbar, automatisch auswertbar und somit wiederverwendbar. Durch das „Verstehen“ der Inhalte, so Schurr, seien zukünftige Suchmaschinen in der Lage, auf eine Frage präzise zu antworten. So kommt etwa auf die Anfrage „Wie hoch ist der Mount Everest?“ die sofortige Reaktion „8.848 Meter“.

Geschrieben von
Susan Tuchel
Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.