Google ist unbestritten die Nummer Eins, wenn es um kostenlose Suchmaschinen geht. Und wer hier erfolgreich sein wollte, richtete sich mit aufwändigen Keywordanalysen und suchmaschinenoptimierten Texten nach den gewünschten Anforderungen. Doch nun soll der US-Riese an einem neuen Konzept arbeiten, das Keywords zwar nicht überflüssig macht, aber deren Dominanz eindeutig relativiert. Die Rede ist von Google Graph, das Inhalte jeglichen Formats selbst verstehen können soll und damit auf jede Suchanfrage die passende und qualitativ hochwertige Antwort liefert.
Daten sind netzwerkartig aufgebaut
Bis jetzt waren die verarbeiteten Daten, die das Suchmaschinenranking ergaben, hierarchisch vernetzt. Nun soll es darum gehen, diese netzwerkartig, also in Form von Graphen zu sortieren. Ein Vergleich mit dem menschlichen Gehirn bietet sich an, denn dieser geplante Aufbau der Suchmaschine arbeitet nach einem ähnlichen Prinzip. Bestehend aus Millionen Neuronen, die durch Synapsen miteinander verbunden sind, kann der Mensch Informationen sehr effizient verarbeiten, wobei gewisse Prozesse wie Atmen oder Verdauen automatisch ablaufen.
Grundsätzlich könnte man sagen, unser Gehirn besteht aus mehreren Gehirnen, die für unterschiedliche Sachen zuständig sind. Eben genau dieses Prinzip will Google für die Suchmaschine nutzen, denn der Algorithmus wird nicht nur auf Knowledge Graph, sondern auch auf Local Graph, Social Graph oder Engagement Graph angewandt, um individuelle Daten zu verarbeiten.
Indexierung nach unterschiedlichen Kriterien
Grundsätzlich kann man Google so beschreiben, dass Webseiten und deren Inhalte sorgfältig auf entsprechende Informationen gecrawlt und diese aufgenommen werden. Die unvorstellbar große Datenmenge muss nach gewissen Kriterien indexiert werden. Um dann auch bei der gewünschten Suchanfrage tatsächlich gefunden zu werden, müssen sie richtig kategorisiert werden.
Ein wesentlicher Faktor zur richtigen Sortierung der Daten bieten bis jetzt die Keywords, die das Problem der Mehrdeutigkeit von Kategorien perfekt lösen und durch ihre Dichte das Ranking beeinflussen. Mithilfe von Panda und Pinguin wurden Updates geschaffen, die Linknetzwerke erkannten und abwerteten. Nun soll es um Entitäten gehen, die den gesamten Inhalt einer Website und ihre URL vergleichen.
Damit taucht ein Problem auf, denn was für uns Menschen intuitiv verständlich ist, muss einer Maschine wie Google nun mal ist, erklärt werden. Die soll in Form einer Ontologie geschehen, die die Verbindung zwischen Realität und Möglichkeit abbildet.