Hyperkommunikation: Ein virtuelles Seminar zum Studiengang Konstruktives Wissensmanagement der Fachstelle für Weiterbildung der Uni Zürich

zurück ]     [ Inhalt ]     [ Log-Buch ]     [ TeilnehmerInnen ]     [ WebCT ]

 
Optimierung für Suchmaschinen   -  Uebersicht   -  Internetkurs von www.bluewin.ch

Einführung | Wie funktionieren Suchmaschinen | Plazierung bei Suchmaschinen | Optimierungs - Tipps | Meta-Tag Generator | Glossar
 
 

Wie funktionieren Suchmaschinen


Suchmaschinen sind keine Verzeichnisse
Wie funktionieren Suchmaschinen

Suchmaschinen sind keine Verzeichnisse

Der Begriff Suchmaschine wird oft generell für Suchwerkzeuge auf dem World Wide Web verwendet. Das wohl prominenteste Beispiel ist Yahoo. Yahoo und einige andere fälschlicherweise oft als Suchmaschinen bezeichnete Suchwerkzeuge sind (redaktionelle) Verzeichnisse. Das heisst, die angemeldeten Seiten werden von Redaktionen begutachtet und wenn der Inhalt stimmt, in eine Kategorie des Verzeichnisses aufgenommen.

Folgende Gegenüberstellung soll die Unterschiede zwischen Suchmaschinen und Verzeichnissen verdeutlichen. Zu erwähnen ist noch, dass es auch Mischformen gibt, sogenannte hybride Suchmaschinen, wo Seiten wie in einem üblichen Verzeichniss abrufbar sind, die Indexierung und Aufnahme der Seiten allerdings von Suchrobotern übernommen wird.
  Verzeichnisse: Suchmaschinen:
Funktionsweise:
  • Seiten werden übermittelt und dann von Redaktoren angeschaut und aufgenommen
  • Seiten können angemeldet werden
  • Suchroboter (Crawler) Suchen das Netz automatisch nach Seiten ab, indexieren deren Inhalt und kehren in regelmässigen Abständen wieder zurück
  • Seiten können angemeldet werden
  • Suchbegriffe:
  • Beim übermitteln kann eine Beschreibung und/oder Suchbegriffe und Kategorien angegeben werden, unter denen die Seite erscheinen soll
  • Einmal ins Verzeichniss aufgenommen ist es schwierig, diese Begriffe zu ändern
  • Suchroboter indexieren die Seite nach Inhalt, META-Tags, Bilder. Je nach Suchalgorhythmus der Suchmaschine.
  • Wie funktionieren Suchmaschinen

    Suchmaschinen können in drei unterschiedliche Prozesse unterteilt werden:

    1. Crawler oder auch Spider genannt:
    Der Crawler besucht eine Website, liest sie, und folgt den Links zu den anderen HTML-Seiten innerhalb der gesamten Website. Der Crawler kehrt in regelmässigen Abständen (z.B. jeden Monat) wieder zur Site zurück um allfällige Änderungen neu einzulesen.

    2. Der Suchmachinen-Index oder -Katalog:
    Die vom Crawler gefundenen Informationen einer Website, werden im Suchmaschinen-Index abgelegt. Man könnte sich ein riesen Buch vorstellen, wo alle Inhalte der vom Crawler abgesuchten Webseiten gespeichert werden. Wenn eine Webpage sich verändert, werden die entsprechenden Index-Inhalte angepasst.
    Oft dauert der Prozess der Indexierung eine Weile. Auch wenn die Seite von einem Crawler abgesucht wurde, ist die Seite noch nicht indexiert, das heisst, die Seite kann mit der Suchmaschine noch nicht gefunden werden.

    3. Der Such-Algorhythmus
    Der Such-Algorhythmus einer Suchmaschine könnte man als Motor der Suchmaschine betrachten. Man versteht darunter die Software, die bei einer Suchabfrage die Millionen von indexierten Einträgen in Sekundenschnelle durchforscht und sie in - in Bezug auf die Abfrage - relevanter Reihenfolge an den Browser des Suchenden zurückschicht. Da der Suchalgorhythmus bei jeder Suchmaschine anders ist, werden bei verschiedenen Suchmaschinen auch verschiedene "Rankings" erscheinen. Je nach dem, auf was die entsprechende Software Wert legt.

    nach obenweiter >>