Der Rankbrain – Googles intelligenter Algorithmus

© Depositphotos / agsandrew

© Depositphotos / agsandrew

Nachdem der Suchmaschinenriese Google schon immer bemüht war, seine Suchergebnisse zu verbessern und bereits seit Jahren in die Forschung zur Künstlichen Intelligenz investiert, steht nun der nächsten logischen Schritt an: Mit RankBrain wird wird eine selbstlernende künstliche Intelligenz Teil des Suchalgorithmus. Welche Verbesserungen wird dies aller Wahrscheinlichkeit nach bringen?

Was ist eigentlich eine Künstliche Intelligenz?

Hinter dem Kürzel KI verbirgt sich ein Konzept, das bereits seit den Anfangstagen der Informatik ein Thema ist: Können Computer so etwas wie eine eigene Intelligenz entwickeln, und eben nicht bloß einem vorgegebenem Programmablauf stur folgen. Ein erfolgreiches Anwendungsgebiet waren beispielsweise Schachcomputer oder das Programm Eliza – ein Art erster Chatbot – das dem Nutzer vorgaukelte, ein Psychotherapeut zu sein, allerdings noch auf einem sehr simplen Niveau.

Ist nun RankBrain eine KI?

Das ist schwer zu sagen: Es soll sich um eine Art Computerprogramm handelt, das insbesondere Suchanfragen analysiert, die Google nicht kennt, also Anfragen, die so noch niemand zuvor gestellt hat. Immerhin soll dies ca. 15 Prozent aller Google-Suchen betreffen. Daher soll RankBrain, wenn ein unbekanntes Wort gesucht wird, automatisch ähnliche Ergebnisse zusammenstellen und filtern. Interne Test sollen erfolgversprechend verlaufen sein. Machine-learning oder auch deep-learing, wie die englischen Fachbegriffe für die Prozesse lauten, die dabei zum Einsatz kommen, ist natürlich nur ein erster Schritt auf dem Weg zu einer KI. Deshalb werden auch weiterhin die anderen Faktoren des Google-Algorithmus berücksichtigt.

Was ist vom RankBrain zu erwarten?

Dieser eigentlich spektakulär erscheinende Schritt wird wohl zunächst bloß einige wenige Änderungen bringen. Ziel ist es – wie eigentlich bei beinahe allen Maßnahmen von Google – den Nutzern genauere Suchergebnisse und gleichermaßen zielgruppenorientiert wie passgenau zur Suche entsprechende Werbung zu präsentieren. Spekuliert wird auch, ob Kundenbewertungen stärker bei der Suche gewichtet werden. Auf jeden Fall sollten Webmaster nun einen noch stärkeren Fokus darauf richten, welche möglichen Sucheingaben potentielle Besucher und Kunden tätigen könnten. Für die Nutzer hingegen werden die Suchen vermutlich noch stärker personalisiert. Die Zeit wird zeigen, welches Potenzial hinter dieser neuen Technologie steckt und wie dadurch das Ranking beeinflusst wird. Zum jetzigen Zeitpunkt wäre eine Prognose noch reine Kaffeesatz-Leserei.

Webmaster aufgepasst: Den RankBrain nicht vergessen

Trotzdem sollten Webmaster und SEOs aufpassen: Google wird vermutlich immer mehr auf selbstlernende KIs setzen. Sich über die damit verbundenen Folgen und Möglichkeiten ein grundlegendes Wissen anzueignen, wird somit für jeden professionellen Webseitenbetreiber beinahe schon zur Pflicht. Außerdem ist es abzusehen, dass auch in anderen Bereichen, wie zur Verbesserung der Nutzererfahrung in sozialen Netzwerken, diese Technologie Einzug halten wird. Und auch die Konkurrenz aus dem Hause Microsoft wird sicher nicht schlafen, und vermutlich auf kurz oder lang ähnliche Algorithmen in Bing implementieren – wenn sie es nicht schon bereits getan haben.


Besseres SEO dank strukturierter Daten

© Depositphotos / Jirsak

© Depositphotos / Jirsak

Für Webseitenbetreiber ist eine gute Positionierung in den Google Suchergebnissen besonders wichtig, um möglichst viel Traffic auf der eigenen Seite zu generieren. Nun geht es heutzutage aber nicht einmal mehr allein um die Positionierung, sondern vielmehr um die Hervorhebung des eigenen Sucheintrags gegenüber allen anderen. Snippets – also Suchergebnisse – bestehen klassisch aus dem Seitentitel, der URL und der Meta-Beschreibung einer Webseite. Diese Snippets können dann mithilfe von strukturierten Daten noch erweitert werden, so beispielsweise mit Videoinhalten oder Kundenbewertungen. Diese Rich Snippets unterscheiden sich somit klar von standarmäßigen Sucheinträgen und besitzen eine höhere Wahrscheinlichkeit, Traffic zu generieren.

Strukturierte Daten kurz erklärt

Um eine Webseite als Suchergebnis überhaupt anzeigen zu können, muss Google deren Inhalte vorher crawlen. Mittels verschiedener Algorithmen wird der Inhalt zusammengefasst und auf Stammdaten und -wörter heruntergebrochen. Allerdings kann Google so noch nicht ausreichend die Zusammenhänge zwischen Phrasen oder Abschnitten erkennen. Mithilfe von strukturierten Daten wird der Inhalt für Google für eine bessere und schnellere Erkennung sozusagen vorsortiert und definiert. Dabei kann man sich strukturierte Daten ähnlich wie einen Datenbankeintrag vorstellen, wobei verschiedenen Datentypen bestimmte Eigenschaften zugeordnet werden. Diese Daten kann Google wiederum nutzen, um Rich Snippets zu generieren.

Auch der Knowledge Graph von Google greift diese strukturierten Daten ab. In diesem Knowledge Graph stellt Google 37 % aller Informationen zu einer Suchanfrage in einem separaten Bereich rechts der Suchergebnisse vor. Dabei stellt dieser eine Ansammlung aller meist-gesuchter Informationen dar, deren Inhalt zum einen aus eigenen Datenbanken bezüglich Nutzerverhalten und zum anderen aus gut strukturierten Quellen wie Wikipedia stammen.

Daten richtig strukturieren

Rich Snippets werden durch weitere Informationen wie Produktbeschreibungen und -bewertungen, Rezepte, Personen oder Veranstaltungen angereichert. Um dies aber zu ermöglichen, braucht es einer bestimmten Strukturierung des HTML Dokuments mit sogennannten HTML-Markups. Diese Markups erweitern die eigentlichen Seiteninhalte, sodass gezielt ein Rich Snippet erzeugt werden kann. Es gibt hier drei verschiedene Markup-Formate, die Mikrodaten, Mikroformate und RDFa. Ohne diese Markups besteht der HTML-Inhalt nur aus div-Tags und deren CSS-Formatierung.

Mikroformate verwenden nur das class-Attribut, um bestimmte Abschnitte im HTML-Dokument mit beschreibenden Namen zu markieren. RDFa hingegen nutzen XHTML-Tags, um den Elementen ihre Namen zuzuweisen.

Mikrodaten werden mit am häufigsten genutzt und nutzen bereits vorhandene HTML Elemente wie rel, span oder class. Dabei werden Elementen und Eigenschaften kurze und beschreibende Namen zugewiesen. Google empfiehlt die Nutzung von Mikrodaten wie sie von Schema.org vorgegeben werden, da sie einen guten Kompromiss zwischen Mikroformaten und RDFa darstellen. Schema.org ist ein gemeinsames Projekt von Google, Bing, Yahoo und Yandex, um einen einheitlichen Standard in der Strukturierung zu bieten. Mittels bestimmter Code-Erweiterungen wie itemscope können diese Suchmaschinen Inhalt nicht nur erkennen, sondern auch deren Zusammenhang deuten. Je nach Datenart wird zudem eine URL zu Schema.org integriert. Beispielsweise wird bei einer Veranstaltung auf schema.org/Event verwiesen. Erst durch diese differenzierte Markierung der HTML Inhalte ist es den Suchmaschinen möglich, Rich Snippets zu erstellen.


Das Google Pinguin und Panda Update

Depositphotos /  simonemascetti

Depositphotos / simonemascetti

Das Google Panda und Google Pinguin Update stellen algorithmische Verfahren dar, welche die Qualität der Internetrankings verbessern sollen. Übertrieben suchmaschinenoptimierte Texte oder welche mit wenig (eigenem) Inhalt und zu viel Verlinkung sollen im Ranking sinken. Generell soll damit für eine höhere Qualität der Suchergebnisse gesorgt werden. Es wird davon ausgegangen, dass bereits über 3% der deutschen Internetseiten durch Google Panda bzw. Pinguin herabgestuft oder gar komplett entfernt wurden.

Google Panda

Die erste Version von Google Panda entstand am 24. Februar 2011. Mittlerweile ist schon die 30. Version erschienen, die qualitativ hochwertigen Websites eine Chance geben soll, indem reine SEO-Seiten von den ersten Treffern verbannt werden. Ausgewertet wird nach der Absprungrate nach einer gewissen Zeit, anhand derer entschieden wird, welche Seiten zu wenig Informationen liefern. Gründe, warum Google-Nutzer nur sehr kurz auf einer Seite verweilen, sind Inhalte, die nicht zu ihrer Domain passen, kaum Inhalt oder sogar schlechter Inhalt. Genauso müssen Titel und Beschreibung zum Seiteninhalt passen, ansonsten werden auch diese Websites heruntergestuft. Ein weiterer Faktor, welcher sich mit dem Panda Update negativ auswirken wird, ist eine schlechte und nutzerunfreundliche Aufmachung der Seite. Eine geringe Klick-Through-Rate lässt die Internetseite auch abrutschen. Das kann der Fall sein, wenn schon allein die Titel in Großschrift geschrieben sind. Ebenso schadet eine schlechte interne Verlinkung, auch wenn Google Panda eigentlich nichts mit Links zu tun hat. Außerdem wird der Inhalt auf Einzigartigkeit überprüft. Das heißt, wenn zu viel von anderen Seiten abgekupfert wurde, wird dessen Inhalt automatisch schlechter und Google Panda greift ein.

Google Pinguin

Google Pinguin sortiert seit dem 24. April 2012 Websites aus, die zu suchmaschinenoptimiert sind. Der Fokus liegt hier allerdings auf Links. Vor allem Anchorlinks stehen im Visier von Google Pinguin. Früher galt, dass ein bestimmtes Maß eingehalten werden sollte, was diese Art von Link betrifft. Man sollte es aber nicht nur nicht übertreiben, sondern ganz unterlassen, wenn man als Betreiber einer Website weiterhin einen guten Platz behalten will. Auch zu viele Links von der gleichen Art sind schädlich für ein gutes Ranking. Generell sollten Footerlinks und Sidewide-Links ganz vermieden werden.

Erkennen ob Google eingegriffen hat

Um zu erkennen, ob die eigene Website durch Panda oder Pinguin beeinflusst wurde, braucht man Auswertungstools. Ein Beispiel wäre sistrix. Man muss einfach die Domain angeben und schon ist zu sehen, ob und inwiefern die Besucheranzahl zurückgegangen ist. Wenn plötzlich niemand mehr die Seite angeklickt hat, ist die Wahrscheinlichkeit herabgestuft worden zu sein sehr hoch.

[Read more…]


Der Pagespeed Faktor

Depositphotos / alphaspirit

Depositphotos / alphaspirit

Die Suchmaschinenoptimierung, kurz SEO, ist für alle Website- und Blog Betreiber ein unvermeidbares Thema. Man muss sich mit diesen und anderen Details wie beispielsweise den Pagespeed auseinandersetzen, um langfristigen Erfolg für sich und sein virtuelles Vorhaben verbuchen zu können.

Pagespeed bei Google

Der sogenannte Pagespeed ist natürlich ein Ausdruck aus der technischen Neuzeit und bezeichnet lediglich die Ladezeit der einzelnen Websites. Diese ist nicht unerheblich und eine schnelle Ladezeit hat weit mehr Auswirkungen auf die Frequenz als viele denken mögen. Seit dem Jahr 2009, setzt sich der Internet Mogul Google für ein flottes Internet ein und arbeitet seit vielen Jahren an Möglichkeiten zur Optimierung.
[Read more…]