Suchmaschinen und Algorithmen – Definition

Header Recruiting

Jede Suche beginnt mit einer Suchmaschine

Die Suche jedes Recruiters nach den besten Köpfen beginnt mit einer Suchmaschine. „Google hat mittlerweile einen Marktanteil von 94,5 %. Zumindest in Europa ist Google DIE Suchmaschine.“ Weitere Suchmaschinen sind z.B. Bing, Yahoo oder AOL.

Frühere Suchmaschinen setzten auf reine Keyword-Suche, heutige setzen auf die Semantik, d.h. die Bedeutung eines Suchwortes und dessen im Kontext stehenden Alternativen. Wie die semantische Suche funktioniert und welche Bedeutung sie für uns als Recruiter hat, könnt ihr hier lesen.

Bevor wir uns dem Thema Suchmaschinen-Optimierung (SEO) und Suchmaschinen-Analyse (SEA) überhaupt nähern, stellen wir uns die Frage, was ist denn eigentlich eine Suchmaschine und wie funktioniert sie?

Algorithmen, Crawler und Index – das Eigenleben der Suchmaschine

Das Herzstück jeder Suchmaschine ist der Index. Der Index ist die Wertangabe zur Adressierung eines Elements (Datenfeld). Die gespeicherten Daten im Server werden ausgelesen, klassifiziert und als Suchergebnis und Treffer wieder ausgegeben. Die indizierten Daten werden unterschiedlich klassifiziert, z.B. nach Bildern, Videos, Textinhalten. Die Weiterverarbeitung der Daten zu einer entsprechenden Suchanfrage übernehmen dann anschließend verschiedene Algorithmen. 

Der Index einer Suchmaschine wird selbstständig und regelmäßig durch sogenannte Crawler inspiziert. Ein Crawler durchsucht Webseiten nach verwertbaren Informationen und speichert diese ab. „Der Weg, den die Crawler im Internet zurücklegen, ähnelt einem Spinnennetz. Deshalb bezeichnet man Crawler auch als Spider.

Die Spinne zieht ihr Netz zusammen

Nachdem Website-Inhalte ausgelesen und im Index abgespeichert wurden, werden sie verarbeitet. Mithilfe von Keywords werden über die Suchmaske Anfragen an den jeweiligen Index gestellt. Der Algorithmus durchforstet die bereitstehenden Daten nach ihm zugrunde liegenden Befehlen, ordnet sie den entsprechenden Keywords zu und listet sie nach möglicher Relevanz. Da der Index ständig durch neue Daten und Datenformate erweitert wird, müssen auch die nötigen Algorithmen ständig angepasst und erweitert werden. Die Komplexität der Algorithmen nimmt dabei durch immer neue Faktoren zu und spielt vor allem in SEO – und SEA-Bereichen eine große Rolle. Die Crawler- und Ausgabe-Algorithmen sind am Ende entscheidend, welche Suchergebnisse für die entsprechenden Keywords generiert werden.

Tieftauchen im Deep Web

Suchmaschinen bilden jedoch trotz der enormen Datenmengen nur 5% der verfügbaren Inhalte des Word Wide Web ab. Suchmaschinen können nur Informationen bereitstellen, die durch Crawler indiziert und durch Algorithmen verarbeitet wurden. Der größte Teil der Daten, die zum Beispiel in Datenbanken und anderen Webseiten liegen, sind für die entsprechenden Crawler nicht lesbar. Das Web wird dadurch in Surface Web (Oberflächenweb) und Deep Web (verstecktes Web) unterschieden.

Surface Web Deep Web Infografik

Für Recruiter sind vor allem die versteckten 95 % des Deep Webs interessant und wichtig, da Algorithmen von Suchmaschinen entsprechende Informationen nach eigenen Kriterien und Relevanz listen, im Kontext zuordnen und natürlich auch den Wettbewerbern um die besten Kandidaten zur Verfügung stellen. Außerdem geraten Recruiter durch diese Algorithmen schnell in einen sich selbst limitierenden Kreislauf, sogenannte Filterblasen, in dem immer wieder die gleichen Ergebnisse als relevant ausgegeben werden. Und hier genau fängt die Arbeit des „Smart Recruiters“ an.

Interessant ist diese Sicht der Dinge auch für Kandidaten, wenn sie während der beruflichen Neuorientierung gefunden werden wollen. Sie sollten die Relevanz ihrer persönlichen Daten in den sozialen Netzwerken genau auf diese Aspekte überprüfen, um im Fall eines beruflichen Wechselwunsches auffindbar zu sein.

Surface Web vs. Deep Web

Wie diese Filterblasen und Algorithmen durchbrochen werden können und was sich im Deep Web versteckt, erfahrt ihr in Teil 3 unserer Serie „Wann beginnt die Zukunft?“. Jede Woche Donnerstag versorgen wir euch mit Informationen zum Thema #SmartRecruiting und unserer Arbeit mit aktuellen Technologien und Methoden.

Was Suchmaschinen nicht finden

Letzte Woche haben wir in unserem Blog bereits über Suchmaschinen und ihre Funktionsweise gesprochen. Dabei sind wir auch schon auf das Surface- und Deep Web eingegangen. Im dritten Teil unserer Serie „Wann beginnt die Zukunft?“ wollen wir den verstecken Teil des Web-Eisbergs beleuchten.

Die Spitze des Eisbergs

Das Web wird gern bildlich als Eisberg beschrieben. Der sichtbare Teil ist das Surface Web und stellt dabei den kleinsten Teil der Informationen dar. Diese Informationen sind die indizierten Daten, die durch Suchmaschinen-Algorithmen und Crawler verarbeitet und wieder ausgegeben werden. Demnach werden sie durch die Suchmaschinen für den Nutzer zugänglich gemacht.

Der verborgene Teil des Web

Das Deep Web (oder auch Hidden/Invisible Web) besteht zu großen Teilen aus themenspezifischen Datenbanken und Webseiten. Zusammengefasst handelt es sich um Inhalte, die nicht frei zugänglich sind, und/oder Inhalte, die nicht von Suchmaschinen indiziert werden oder nicht indiziert werden sollen. Geprägt wurde der Begriff 2001 von Michael K. Bergmann. Die Daten, die Suchmaschinen im Surface Web zumeist nicht indizieren können, sind zum Beispiel personenbezogene Dokumente, Arzt- oder Finanzberichte, wissenschaftliche Studien. Häufig sind sie Teil einer Datenbank oder eines privaten Netzwerks, welche nicht für die Veröffentlichung bestimmt sind und trotzdem auf Servern im Web existieren.

Das Durchbrechen der Filterblasen

Das Surface Web stellt für Recruiter und ihre Suchmethoden eine große Herausforderung dar, wenn es darum geht, ein umfassendes Abfrageergebnis zu erhalten. Durch die Interpretation und Listung der Ergebnisse nach Relevanz werden Suchanfragen häufig limitiert und verzerrt. Der Algorithmus der Suchmaschine weist Ergebnissen mit häufiger Klickrate die höchste Relevanz zu. Daher kann es vorkommen, dass ebenfalls passende Treffer nicht angezeigt bzw. Ergebnisse durch Suchmaschinen limitiert werden.

Durch die Ähnlichkeit von häufig gestellten Suchanfragen werden die Ergebnisse „homogenisiert“. Das bedeutet im Falle von Recruitern: „Je mehr Sourcer semantische Suchmaschinen mit ähnlichen Anfragen nutzen, umso mehr bekommen diese auch die Suchergebnisse der anderen angezeigt.“ Wie schon im zweiten Teil unseres Blogs angesprochen, landen Recruiter dadurch häufig in einer Filterblase (oder Echoraum) und bekommen keine differenzierten Ergebnisse mehr angezeigt. Die Suchmaschine „denkt“, dass nur homogene Ergebnisse zum gewünschten Ziel führen.

Keywords und Sourcing

Da die Filterblasen das Ergebnis der semantischen Suche sind, ist es von Vorteil die Keyword-Kombinationen im Sourcing-Prozess möglichst offen zu wählen beziehungsweise zu variieren. Die Kombinationen sollten dabei unterschiedlich konzipiert werden, also die Länge sowie die Wortverknüpfung so gewählt sein, dass der Algorithmus weniger Muster erkennen kann. Es ist ebenfalls hilfreich den Algorithmus durch wechselnde Suchanfragen hinters Licht zu führen und so sicherzustellen, nicht zu oft die gleichen Keywords zu suchen.

Welche Ergebnisse Recruiter durch den Sourcing Prozess erhalten und wie diese Daten ausgewertet werden, erfahrt ihr nächste Woche im vierten Teil unserer Serie. Wir beschäftigen uns mit der Frage nach der Ethik im Social Media Recruiting und den Wegen, Kandidaten zu gewinnen.

Bildquelle & Bildquelle

Header Recruiting
Maria Paul

Active Sourcing – Methode der Personalgewinnung

Active Sourcing ist eine moderne Methode des Personal-Recruitings, bei der Unternehmen proaktiv nach geeigneten Kandidat:innen für offene Stellen suchen. Im Gegensatz zur passiven Methode des Wartens auf Bewerbungen auf Stellenanzeigen, geht Active Sourcing aktiv auf potenzielle Bewerber:innen zu und versucht, sie für die vakante Position zu gewinnen.

Weiterlesen »

2 Antworten

  1. Wirklich schöner Artikel. Selten mein Beispiel mit dem „Spinnennetz“ und das Breiterstreuen / Aufbauen gelesen. Ich könnte mir gut vorstellen, dass der Artikel heute noch gute Akzeptanz im Bereich der OnPage und Content Erstellung findet. Aus eigener Erfahrung kann ich zusätzlich noch sagen, dass das größte Hochhaus das beste Rankingergebnis bringt. Dies passiert automatisch, wenn das Keyword Mapping und die Semantik ordentlich und gut strukturiert umgesetzt wird.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.