Log-Analyse:
Ein Hebel zur Optimierung Ihrer SEO
Als Säule der technischen SEO ist die Protokollanalyse eine wertvolle Informationsquelle, die Sie zur Optimierung Ihrer natürlichen Referenzierung verwenden können.
Wie es funktioniert ?
Was ist Log-Analyse im SEO?
Wie sehen Roboter Ihre Website?
Um die SEO-Optimierung optimal zu nutzen, ist es wichtig zu wissen, wie Suchmaschinen-Roboter („Bots“) mit Ihrer Website interagieren. Verstehen: was sie beim Crawlen sehen. Weil die Erkundung der Seiten nach mehreren Kriterien erfolgt (Geschwindigkeit der Antwort des Servers, Tiefe der URLs, Aktualisierungshäufigkeit…), und es ist nicht selten, dass Unterschiede zwischen dem, was eine Suchmaschine von Ihrer Website kennt, und festgestellt werden die Seiten, die online erscheinen und Traffic generieren. Leider liefern die klassischen Tools – Search Console, Google Analytics, SEO Crawl Software – nur eine unvollständige Antwort. Die einzige Möglichkeit, genau festzustellen, was die Bots sehen, besteht darin, die Server-Logdateien zu untersuchen. Daher der Begriff der „Log-Analyse“ im SEO: ein grundlegender Aspekt des technischen Teils der natürlichen Referenzierung.
Log-Analyse: ein entscheidender Hebel für technisches SEO
Das „Protokoll“ bezeichnet eine Datei, die auf dem Website-Server gehostet wird. Eine Art „Logbuch“, das alle Ereignisse aufzeichnet, die auf diesem Server stattfinden – die „Anrufe“ oder „Hits“. Sobald eine Entität (Internetnutzer oder Bot) versucht, auf die Ressourcen der Seite zuzugreifen, wird eine neue Zeile in die Logdatei eingetragen. Die Protokollanalyse im SEO ist also die Operation, die darin besteht, Informationen aus dieser Datei zu extrahieren, um sie zu studieren und daraus Lehren im Hinblick auf die Optimierung von Seiten zu ziehen. Dieser Ansatz bietet einen globalen Überblick über die Leistung der Website, ihren Einfluss auf Bots, ihre technischen Fehler, ihr Netz usw. Noch wichtiger: Nur diese Daten sind zu 100 % zuverlässig. Sie helfen dabei, besser zu verstehen, was passiert, wenn die Bots die Seite crawlen, und letztlich die relevanten Hebel zu aktivieren, um SEO kontinuierlich zu verbessern.
Welche Daten finden wir in den Protokollen?
-
Datum und Uhrzeit der Anfrage („Zeitstempel“)
-
Die Art der Anfrage
-
Der Benutzeragent, der die Anforderung initiiert
-
Die besuchte URL
-
Die Quell-URL („Referrer“)
-
Seitendetails: Gewicht, Antwortzeit, HTTP-Antwortstatuscodes (200, 301, 404, 500) usw.
-
Daten des Internetnutzers: IP-Adresse, verwendete Suchmaschine, Betriebssystem etc.
Zwei Arten von Kriechen (in Kombination zu verwenden)
Beim Crawlen müssen wir zwei Ansätze unterscheiden: den von Suchmaschinen-Bots und den von SEO-Spezialisten verwendeten Crawl-Tools. Da sich diese beiden Ansätze ergänzen, ist es wichtig, die Daten für ein optimales Ergebnis zu kombinieren.
-
Von Bots gecrawlt
Suchmaschinen-Robots crawlen die Seiten einer Website, indem sie den Links folgen, die während der Erkundung gefunden wurden (internes Mesh und eingehende Links) und gemäß den ihnen gegebenen Anweisungen (über XML-Sitemap-Dateien und robots.txt) . Sie identifizieren auch zuvor indizierte Seiten, die aber nicht mehr zugänglich sind, sowie Seiten, die von Internetbenutzern besucht wurden und die nicht mit der Website verlinkt sind. Es ist dieses Crawling, das wir dank der Analyse von Protokollen untersuchen.
-
Das Crawling mit SEO-Tool
Mit SEO-Crawling-Tools können Sie alle Seiten einer Website analysieren, aber nur, wenn sie miteinander verknüpft sind (durch interne Verlinkung). Dies gibt eine eingeschränktere Ansicht, in der Engine-Bots Seiten sehen können, die nicht mit dem Rest der Website verlinkt sind, sogenannte „Waisen“. Die Daten aus dieser Art von Crawling sind wertvoll, aber nicht so genau wie im Rahmen einer Protokollanalyse.
GUT ZU WISSEN
Die Protokollanalyse ist dichten Sites vorbehalten: Wir sprechen im Allgemeinen von mindestens 1.000 Seiten (auch wenn es möglich ist, diesen Ansatz für Sites mit weniger Seiten zu praktizieren). Je größer eine Website ist, desto größer ist in jedem Fall das Risiko, auf Crawl-Probleme zu stoßen – was das Studium von Protokollen umso wichtiger macht.
Warum Protokollanalysen im SEO betreiben?
Analysieren Sie die Protokolle, wozu?
Dank Log-Analyse ist es möglich, den Weg von Bots auf einer Website genau zu rekonstruieren. Das Ziel ? Visualisieren Sie das Crawlen mit absoluter Präzision und mit unbestreitbarer Zuverlässigkeit; verstehen, wie die Website von Robotern gecrawlt wird, welche Seiten besucht werden oder nicht (und warum nicht); Identifizieren Sie die Blockierungspunkte und die zu ergreifenden Korrekturmaßnahmen, um Ihre Seiten effektiver zu referenzieren usw. Kurz gesagt hilft Ihnen diese Analysearbeit bei der Beantwortung einer Schlüsselfrage: „Hat die Suchmaschine die gleiche Vision von meiner Website wie ich? „. Die Idee ist, dass sich diese beiden Visionen – die des Motors und Ihre – so nah wie möglich kommen.
Wozu dient die Protokollanalyse?
-
Überwachen Sie das Crawlen durch Bots
Die Protokollanalyse ermöglicht es Ihnen, wesentliche Informationen zum Crawl zu verfolgen, insbesondere die Art und Weise, wie das Explorationsbudget jeder Engine von den Bots auf Ihrer Website ausgegeben wird. Welche Seiten werden von den Suchmaschinen als wichtig angesehen? Sind sie die gleichen wie Ihre strategischen Seiten? Was sind die möglichen Bereiche der Crawl-Budget-Verschwendung? Im Wesentlichen kann man den Fortschritt des Crawls durch die Bots genau verfolgen.
-
Verstehen, was Bots sehen
Das Studium der Protokolle versetzt Sie an die Stelle von Crawler-Robotern und zeigt Ihnen, was sie sehen, wenn sie Ihre Website erkunden. Dies trägt dazu bei, wichtige Daten zu ermitteln: Lücken in der Erkundung, indexierte Seiten, wenn sie nicht über das Mesh mit der Website verknüpft sind, Fehler in den Antwortcodes von URLs, zu lange Ladezeiten, Crawling von Dateitypen, zugewiesener Platz für die mobile Version, usw.
-
Führen Sie ein vollständiges technisches SEO-Audit durch
Jedes technische SEO-Audit muss eine Protokollanalyse beinhalten. Dies ist ein notwendiger Schritt, um die zu optimierenden Indikatoren zu identifizieren. Eine solche Analyse erfordert jedoch sehr spezifische Fähigkeiten, insbesondere um die Daten aus der Protokolldatei zu extrahieren, zu interpretieren und mit anderen SEO-Informationen abzugleichen. Nur SEO-Experten können die Vorteile voll ausschöpfen.
-
Lösen Sie die Bremsen zur natürlichen Referenzierung
Die Protokollanalyse ist ein Muss für SEO. Das Ziel ist daher zu verstehen, was die korrekte Referenzierung der Seiten verhindert, oder sogar die Ursachen für einen plötzlichen Rückgang der Positionierung in den SERPs zu identifizieren. So lassen sich konkrete Maßnahmen entwickeln, um den Durchgang von Bots flüssiger zu gestalten, beispielsweise indem Fehler in Antwortcodes korrigiert, „Bot-Traps“ erkannt oder Seitenladezeiten verbessert werden.
-
Quantifizieren und unterstützen Sie SEO-Aktionen
Schließlich liegt das Interesse der Protokollanalyse in der Genauigkeit und Zuverlässigkeit der gewonnenen Informationen. Diese haben die Form von numerischen Indikatoren, die die Schwierigkeiten aufzeigen, mit denen der Standort konfrontiert ist, und die Notwendigkeit, Korrekturmaßnahmen zu ergreifen. Folglich ermöglicht das Ergebnis dieser Analyse, die Optimierungshebel zu priorisieren, aber auch die Zustimmung der Hierarchie einzuholen, indem konkret aufgezeigt wird, welche Probleme identifiziert wurden und wie sie gelöst werden können.
Wann sollte eine Protokollanalyse durchgeführt werden?
Eine auf die Protokolle konzentrierte Analysearbeit kann jederzeit im Leben der Website durchgeführt werden, wenn sie ein hohes Volumen hat (mehr als 10.000 Seiten), beispielsweise im Rahmen eines Audits, einer technischen SEO oder einer monatlichen Analyse. Für kleinere Websites (von 1.000 bis 10.000 Seiten) ist dieser Ansatz in mehreren Szenarien besonders nützlich: während einer Neugestaltung oder Migration; wenn Sie eine große Anzahl neuer URLs hinzufügen; wenn Sie Änderungen in der SEO-Positionierung Ihrer Seiten feststellen usw. Schließlich eignet sich die Protokollanalyse besonders für E-Commerce-Websites, die oft eine sehr große Anzahl wichtiger Seiten (insbesondere Produktblätter) enthalten, und für Nachrichtenseiten, für die eine detaillierte Kenntnis der Crawling-Frequenz unerlässlich ist (da es sich um eine Frage, neue Inhalte schnellstmöglich von Suchmaschinen indexieren zu lassen).
Wie analysiert man
Daten aus Protokollen?
Wie analysiert man die Protokolle?
Die Protokolldatei ist riesig und kommt in Rohform mit chaotischen Informationen. Mit anderen Worten, seine Beratung ist unverdaulich. Dies macht eine manuelle Analyse schwierig, wenn nicht unmöglich, was sowohl zeitaufwändig als auch mühsam wäre. Es ist daher notwendig, Tools zu verwenden, die Ihnen die Arbeit abnehmen und die Rohdaten sortieren, um so schnell wie möglich die Informationen zu extrahieren, die Sie zur Optimierung Ihrer SEO benötigen. Auf dem Markt existieren viele Lösungen wie Screaming Frog oder OnCrawl. Allerdings muss deren Einsatz durch die gemeinsame Nutzung von SEO-Crawling- und Datenanalyse-Tools (Search Console, Google Analytics etc.) abgesichert sein. Denn wenn diese Tools das Lesen der Protokolle erleichtern, reichen sie nicht aus, um eine vollständige Analyse zu erstellen oder die Daten richtig zu interpretieren, um konkrete Empfehlungen abzuleiten. Schließlich ist es wichtig zu wissen, wie man die entsprechenden Indikatoren verwendet!
Die relevanten Indikatoren, die bei der Analyse von Protokollen berücksichtigt werden müssen
-
Die Crawl-Frequenz
Dieser Indikator zeigt Ihnen die Häufigkeit, mit der Ihre Website von Suchmaschinen-Bots gecrawlt wird, mit den Daten der letzten Besuche und der Anzahl der Besuche (dieselbe Seite kann mehrmals täglich gecrawlt werden, wenn es besonders wichtig ist) . So können Sie überprüfen, ob die strategischen Seiten tatsächlich und regelmäßig von den Robotern besucht werden.
-
Das Kriechfenster
Dies ist die Anzahl der Tage, die zum Crawlen aller URLs Ihrer Website erforderlich sind. Dieses Fenster liegt im Allgemeinen zwischen 1 und 3 Wochen: Es ist die durchschnittliche Zeit zwischen zwei Durchgängen der Bots, die berücksichtigt werden muss, wenn Änderungen vorgenommen werden und wissen möchten, wann sie indiziert werden und wann ihre Auswirkungen auf die SEO spürbar sind . Es ist auch eine Möglichkeit, die Zeiträume vorwegzunehmen, die der Einfügung neuer Inhalte förderlich sind.
-
Die Verwendung des Crawl-Budgets
Die Protokollanalyse ermöglicht den Zugriff auf einen beeindruckenden Indikator: die Art und Weise, wie das Crawl-Budget von Suchmaschinen verwendet wird, d. h. die Begrenzung der Anzahl von Seiten, die der Bot crawlen darf. Wichtige Informationen, um zu verstehen, welche Seiten oder welche Kategorien der Website beim Crawlen bevorzugt werden, und um die Bots so umzuleiten, dass sie die URLs priorisieren, die Sie für die SEO am wichtigsten halten.
-
Technische SEO-Fehler
Mehrere Indikatoren zielen darauf ab, die Blockaden auf technischer Ebene zu identifizieren, die die Referenzierung der Website behindern. Zum Beispiel: doppelte URLs, Probleme mit der Ladegeschwindigkeit oder Seiten, die Fehler anzeigen (301, 404, 500). Diese Probleme betreffen die Erkundung der Website durch Roboter, aber auch die Qualität der Benutzererfahrung – ein Signal, das von Suchmaschinen berücksichtigt wird, um die Relevanz einer Seite zu beurteilen.
-
Irrelevanter Inhalt
Die Protokollanalyse hilft dabei, irrelevante Inhalte auf Ihrer Website zu identifizieren. Diese Inhalte werden von Bots gecrawlt, mit zwei negativen Auswirkungen: Sie verschwenden die dem Crawl-Budget zugewiesenen Ressourcen (auf Kosten strategischer Seiten, deren Entdeckung verzögert wird) und können Ihr SEO benachteiligen. Wir sprechen hier von doppelten Inhalten, 404-Fehlern, gehackten Seiten, Inhalten von geringer Qualität usw.
-
Verwaiste Webseiten
Gekoppelt mit einem SEO-Crawl ermöglicht die Log-Analyse das Aufrufen sogenannter „verwaister“ Seiten: Sie sind Suchmaschinen bekannt (weil sie hohe Werte zu wichtigen Kennzahlen anzeigen), ohne mit der Website verlinkt zu sein Mangel an Links, die auf sie verweisen. Diese Seiten können gut im SERP positioniert werden und Traffic generieren: Daher ist es wichtig, sie in das interne Mesh zu integrieren.
-
Die mobile Version des Crawls
Dank der Protokolle können Sie den Anteil von Mobile Crawl und Desktop Crawl auswerten. Bei Google lässt dieser Indikator erkennen, ob eine Website in den Mobile-First-Index verschoben wurde: Sie wird dann zu 80 % vom mobilen Roboter und zu 20 % vom Desktop-Roboter besucht (diese Werte sind umgekehrt für den klassischen Index). Das Interesse besteht darin, die mobilen Versionen Ihrer Seiten bei Bedarf überarbeiten zu können.
-
Die Stärke des Netzes
Durch die Angabe der von den Suchmaschinen gecrawlten URLs (im Vergleich zu den während eines SEO-Crawls untersuchten URLs) ist es möglich, eine klare Vorstellung von der Struktur einer Website und ihrem internen Netz zu erhalten. Der nächste Schritt besteht darin, dieses Netz zu optimieren und zu konsolidieren, um den Bots das nächste Crawlen zu erleichtern und ihnen so zu ermöglichen, wichtige Seiten zu entdecken, die bisher ignoriert oder vernachlässigt wurden.
Unser Anspruch
-
Expertise
Seit 2010 haben wir mit mehr als 2.000 Kunden in 90 Ländern zusammengearbeitet. Diese Erfahrung ermöglicht es uns, genau auf Ihre Herausforderungen einzugehen.
-
Hingabe
Wir sind ein Team von Enthusiasten, die ständig die Entwicklungen in der Branche verfolgen. Diese Einstellung garantiert Ihnen, mit Beratern zusammenzuarbeiten, die sich Ihrem Erfolg verschrieben haben.
-
Leistung
Wir unterstützen Sie bei der Umsetzung einer datengesteuerten, digitalen Strategie zur Erreichung Ihrer Geschäftsziele und Verbesserung Ihres Wachstums.
Häufig gestellte Fragen
Die im SEO verwendete Protokollanalyse besteht darin, Informationen aus der Protokolldatei (die an den Website-Server angehängt ist) zu extrahieren, um sie für Optimierungszwecke zu verwenden. Die Protokolle zeichnen alle Ereignisse auf, die auf dem Server stattfinden, unabhängig davon, ob sie von Internetbenutzern oder Suchmaschinenrobotern während des Crawls stammen. Das Interesse besteht darin, dass die Daten, die sich aus der Analyse von Protokollen ergeben, von hoher Präzision und narrensicherer Zuverlässigkeit sind.
Durch die Analyse der Protokolle können wir Punkt für Punkt den Weg rekonstruieren, den Suchmaschinen-Robots beim Crawlen einer Website genommen haben. Dadurch ist es möglich, die Seite genau so zu „sehen“, wie die Bots sie „sehen“, und eine Vielzahl von Informationen abzuleiten, die für die Entwicklung von Empfehlungen zur SEO-Optimierung der Seite unerlässlich sind. Kurz gesagt, es ist ein unverzichtbares Werkzeug für technisches SEO.
Die Protokollanalyse kann angesichts der Komplexität des Vorgangs und der großen Menge an zu verfeinernden Rohdaten nicht manuell durchgeführt werden. Es ist daher notwendig, ein spezielles Tool zum Extrahieren, Visualisieren und Verwerten von Protokollen wie Screaming Frog oder OnCrawl zu verwenden. Außerdem ist es notwendig, diese Daten mit den Ergebnissen eines klassischen SEO-Crawls zu kreuzen. Schließlich ist es wichtig, die relevanten Indikatoren zu identifizieren, die im Hinblick auf Ihre SEO-Ziele sinnvoll sind.