Wichtigste Erkenntnisse
Crawlability beschreibt die Fähigkeit von Suchmaschinen, eine Website vollständig zu durchsuchen und zu indexieren
Schlechte Crawlability führt zu geringerer Sichtbarkeit in Google-Suchergebnissen und weniger organischem Traffic
Häufige Probleme sind blockierte robots.txt-Dateien, fehlende interne Verlinkung und langsame Ladezeiten
Die Google Search Console ist das wichtigste Tool zur Überwachung und Verbesserung der Crawlability
Eine optimierte Website-Struktur und XML-Sitemap verbessern die Crawlability erheblich
Ihre Website könnte den wertvollsten Content im Internet bieten, aber wenn suchmaschinen crawlern sie nicht erreichen können, bleibt sie für potenzielle Besucher unsichtbar. Crawlability ist die Fähigkeit von Suchmaschinen-Bots, auf den Inhalt einer Website zuzugreifen, ihn zu navigieren und zu lesen, sodass dieser interpretiert, indexiert und in den Suchergebnissen gerankt werden kann. Websites erreichen eine gute Crawlability durch klare Seitenarchitektur, zugängliche interne Links, optimierte technische Elemente wie robots.txt und XML-Sitemaps sowie die Vermeidung von Barrieren wie defekten Links oder blockiertem Code.
In diesem umfassenden Leitfaden erfahren Sie, wie Sie die Crawlability Ihrer Website testen, häufige Probleme identifizieren und praktische Lösungen implementieren. Sie lernen die wichtigsten Tools kennen und erhalten konkrete Strategien zur Optimierung Ihrer Website-Struktur für maximale Sichtbarkeit in Suchmaschinen.
Was ist Crawlability und warum ist sie entscheidend für SEO?
Crawlability misst, wie effektiv Suchmaschinen Crawler wie Googlebot eine Website durchsuchen können. Stellen Sie sich vor, Ihre Website ist wie ein Gebäude und der Googlebot ist ein Besucher, der jedes Zimmer betreten möchte. Wenn die Türen verschlossen sind, die Flure blockiert oder die Wegweiser fehlen, kann der Besucher nicht alle Bereiche erreichen.
Der Crawler folgt systematisch Links von Seite zu Seite und analysiert Inhalte für die Indexierung. Beginnt er auf Ihrer Startseite, folgt er internen Links zu Unterseiten, sammelt Daten über den Content und die Website Struktur. Nur Seiten, die erfolgreich gecrawlt werden, haben eine Chance auf Rankings in den Suchergebnissen.
Der direkte Zusammenhang zwischen Crawlability und Rankings ist eindeutig: Nur Crawlbare Seiten können in Google-Suchergebnissen erscheinen. Eine Seite, die nicht gecrawlt wird, existiert für Suchmaschinen praktisch nicht. Statistiken zeigen, dass Websites mit optimaler Crawlability durchschnittlich 40% mehr organischen Traffic erhalten als solche mit Crawl Problemen.
Unterschied zwischen Crawlability und Indexierbarkeit
Crawlability und Indexierbarkeit sind zwei verschiedene Konzepte, die oft verwechselt werden:
Crawlability: Die Fähigkeit von bots, eine Seite zu besuchen und den Inhalt zu lesen
Indexierbarkeit: Die Entscheidung der Suchmaschine, gecrawlte Inhalte im Suchindex zu speichern
Eine Seite kann erfolgreich gecrawlt, aber nicht indexiert werden. Dies passiert beispielsweise bei Seiten mit Noindex Meta-Tags oder bei Content, den Google als nicht wertvoll einstuft. Umgekehrt kann eine Seite theoretisch indexiert werden, ohne vollständig gecrawlt zu sein – dies führt jedoch zu unvollständigen Einträgen in den Suchmaschinenergebnissen.
Kann Noah als SEO Spezialisten wärmstens empfehlen. Er weiß wovon er spricht und ist im Online Marketing zu Hause. Top Leistung!
AUSGEZEICHNET Basierend auf 56 Bewertungen Juliane Scherrer2024-11-12Trustindex überprüft, ob die Originalquelle der Bewertung Google ist. Lutz Online Marketing in Düsseldorf ist als SEO Freelancer tätig. Als SEO Experte arbeitet er hoch professionell, er ist sehr erfahren und in vielen Branchen tätig. Er hat mich sehr erfolgreich bei meinem Online Marketing unterstützt. Herr Lutz ist äußerst zuverlässig und sehr zielorientiert, seine Leistung war sehr schnell erfolgreich. Ich kann Lutz Online Marketing uneingeschränkt empfehlen. K. Polat2024-10-01Trustindex überprüft, ob die Originalquelle der Bewertung Google ist. Herr Lutz hat unser Unternehmen hervorragend beraten und uns in kurzer Zeit wichtige Tipps gegeben. Vielen Dank dafür! Markus Leitner2024-09-10Trustindex überprüft, ob die Originalquelle der Bewertung Google ist. Sehr empfehlenswerter SEO Freelancer aus Düsseldorf! Professionell, zuverlässig und immer auf dem neuesten Stand der Entwicklungen im Bereich Suchmaschinenoptimierung. Wir Arbeiten in mehreren Projekten mit Noah zusammen und von Beginn an hat sich die Sichtbarkeit massiv verbessert. Überzeugt hat uns von Anfang vor allem auch die maximale Transparenz sowie die sofortige Erreichbarkeit bei Fragen oder Gesprächsbedarf. Das ist Dienstleistung auf einem ganz hohen Niveau. Danke für die tolle Arbeit und wir freuen uns auf alles Weitere! Canio Ludwig2024-06-19Trustindex überprüft, ob die Originalquelle der Bewertung Google ist. Noah konnte mir gewaltig bei der Verbesserung meiner Internetpräsenz helfen! Ohne ihn war meine Seite nicht einmal indexiert, er hat sich merklich in mein Thema eingearbeitet und schnell Lösungen gefunden, die mir massiv helfen konnten. Jetzt stehe ich seit Monaten in den Top3-Ergebnissen meiner Suchbegriffe, ohne Noah wäre das nicht möglich gewesen und ich kann ihn zu 100% empfehlen! Vielen Dank für deine Ideen, deine Geduld und die tollen Ergebnisse für mein Unternehmen! Christoph Welle2024-01-31Trustindex überprüft, ob die Originalquelle der Bewertung Google ist. Von Anfang an war die Zusammenarbeit mit Noah Lutz eine absolute Bereicherung für unser Online-Geschäft. Als wir uns auf die Suche nach einem SEO-Spezialisten machten, um die Sichtbarkeit unserer Website in den Google-Suchergebnissen zu verbessern, stießen wir auf zahlreiche Anbieter. Die Entscheidung für Noah Lutz fiel uns jedoch leicht, sobald wir das erste Beratungsgespräch geführt hatten. Seine Professionalität, tiefgreifendes Fachwissen und die Fähigkeit, komplexe SEO-Konzepte verständlich zu erklären, haben uns sofort überzeugt. Noah Lutz hat sich die Zeit genommen, unser Geschäftsmodell und unsere Ziele gründlich zu verstehen. Er entwickelte eine maßgeschneiderte SEO-Strategie, die nicht nur auf die Verbesserung unserer Rankings abzielte, sondern auch darauf, qualitativ hochwertigen Traffic auf unsere Seite zu lenken. Durch die Implementierung gezielter Keyword-Recherchen, On-Page-Optimierung und den Aufbau einer soliden Backlink-Struktur konnten wir innerhalb weniger Monate signifikante Verbesserungen in den Suchergebnissen feststellen. Besonders beeindruckt hat uns die transparente Arbeitsweise von Noah Lutz. Er hat uns regelmäßig mit detaillierten Berichten und Analysen versorgt, die den Fortschritt unserer SEO-Maßnahmen aufzeigten. Seine proaktive Kommunikation und Bereitschaft, Fragen zu beantworten und Anpassungen vorzunehmen, wenn nötig, haben die Zusammenarbeit sehr angenehm gestaltet. Dank Noah Lutz haben wir nicht nur eine verbesserte Online-Präsenz erreicht, sondern auch ein tieferes Verständnis für die Bedeutung und Funktionsweise von SEO gewonnen. Seine Dienstleistungen haben sich als eine wertvolle Investition in die Zukunft unseres Unternehmens erwiesen. Für jedes Unternehmen, das seine Online-Sichtbarkeit ernsthaft verbessern möchte, kann ich Noah Lutz uneingeschränkt empfehlen. Seine Expertise, sein Engagement und seine Ergebnisse sprechen für sich. Wir freuen uns auf eine weiterhin erfolgreiche Zusammenarbeit. Sander Wintgens2023-12-06Trustindex überprüft, ob die Originalquelle der Bewertung Google ist. Wir sind äußerst zufrieden mit der knapp einjährigen Zusammenarbeit mit Noah Lutz. Seine fundierten SEO-Kenntnisse haben maßgeblich zur Stärkung der Online-Präsenz des Unternehmens beigetragen. Professionelle Zusammenarbeit, transparente Berichterstattung und nachweisliche Ergebnisse machen Herrn Lutz zu einem empfehlenswerten Partner für erfolgreiches Online-Marketing. Vielen Dank für die hervorragende Arbeit! Tobias Poeschl2023-11-16Trustindex überprüft, ob die Originalquelle der Bewertung Google ist. Super empfehlenswert! Wir arbeiten schon länger mit Herr Lutz zusammen und die Qualität sowie die Ergebnisse stimmen einfach! Moritz Fiedler2023-07-08Trustindex überprüft, ob die Originalquelle der Bewertung Google ist. Herr Lutz ist sehr kompetent, seine Erklärungen sind hilfreich, er arbeitet sehr schnell und setzt Wünsche und besprochene Maßnahmen rasch um. Das Ranking-Ergebnis für meine Webseite hat sich klar verbessert. Ich freue mich auf die weitere Zusammenarbeit. jannah2023-07-06Trustindex überprüft, ob die Originalquelle der Bewertung Google ist. Deine Unterstützung war Gold wert, danke dir! Bernd Läufle2023-05-11Trustindex überprüft, ob die Originalquelle der Bewertung Google ist. Normalerweise setzen wir Auftrag und Erledigung in der Dienstleistung als eine ganz normale Sache voraus,aber in Ihrem Falle haben Sie mehr geleistet als abgesprochen. Genau dieses hebt Sie hervor. Vielen Dank hierfür Herr Lutz. Firma F&H Läufle GmbH
So testen Sie die Crawlability Ihrer Website
Die Google Search Console ist das wichtigste tool zur Überwachung der Crawlability. Sie bietet direkten Einblick in die Sicht von Google auf Ihre Website und zeigt konkrete Probleme auf.
Google Search Console nutzen
Loggen Sie sich in die Search Console ein und navigieren Sie zu “Abdeckung” unter “Index”. Hier sehen Sie vier wichtige Kategorien:
Gültig: Erfolgreich Gecrawlte und indexierte Seiten
Gültig mit Warnungen: Gecrawlte Seiten mit kleineren Problemen
Fehler: Seiten mit Crawl Fehlern
Ausgeschlossen: Absichtlich oder unabsichtlich nicht indexierte Seiten
Vergleichen Sie die Anzahl der indexierten Seiten mit der tatsächlichen Anzahl wichtiger URL’s auf Ihrer Website. Eine große Diskrepanz deutet auf Crawlability Probleme hin.
Das URL-Prüfung tool ermöglicht es, einzelne Seiten zu testen. Geben Sie eine URL ein und klicken Sie auf “Live-Test”. Google zeigt Ihnen, ob die Seite Crawlbar ist und wie sie gerendert wird.
Praktische Testmethoden
JavaScript-Test durchführen: Deaktivieren Sie JavaScript in Ihrem browser und navigieren Sie durch Ihre Website. Inhalte, die ohne JavaScript nicht sichtbar sind, könnten für einfachere Crawler unzugänglich sein.
Screaming Frog SEO Spider einsetzen: Dieses tool simuliert das verhalten von Web Crawlern. Die kostenlose Version crawlt bis zu 500 URL’s und zeigt:
Defekte Links (404 Fehlerseiten)
Weiterleitungsschleifen
Blockierte Ressourcen
Meta-Tags und strukturdaten
Site-Befehl verwenden: Suchen Sie “site:ihredomain.de” in Google. Die Anzahl der Ergebnisse gibt einen groben überblick über indexierte Seiten.

unverbindliche Beratung

persönlicher Ansprechpartner & flexible Laufzeiten

Konkrete Analyse und Strategievorstellung nach Erstgespräch
In einem Erstgespräch haben wir die Gelegenheit, uns persönlich kennenzulernen. Dabei gebe ich Ihnen einen Einblick in meine Arbeitsweise, während ich mehr über Sie und Ihr Projekt erfahre. Im Anschluss an das Gespräch erhalten Sie ein unverbindliches Angebot, das eine konkrete Analyse und Strategievorstellung für Ihr Projekt umfasst.
Die häufigsten Crawlability-Probleme und ihre Auswirkungen
Crawl Fehler können verschiedene Ursachen haben und unterschiedlich schwerwiegende auswirkungen auf die Sichtbarkeit Ihrer Website haben.
Blockierte robots.txt-Datei
Die robots txt Datei steuert, welche Bereiche von Bots besucht werden dürfen. Häufige Fehler:
Disallow: / blockiert die gesamte Website
Disallow: /blog/ verhindert das crawlen aller Blog-Artikel
Blockierung wichtiger CSS- oder JavaScript-Dateien
Überprüfen Sie Ihre robots.txt unter ihredomain.de/robots.txt und stellen Sie sicher, dass nur unwichtige Bereiche blockiert sind.
HTTP-Statuscodes und Serverfehler
404 fehler: Defekte interne Links verschwenden crawl-budget und verwirren Suchmaschinen Crawlers. Eine Website mit vielen 404 Fehlerseiten wird als schlecht gepflegt wahrgenommen.
500er-Fehler: Serverprobleme verhindern das Crawling vollständig. Google reduziert die crawl-Häufigkeit bei Websites mit häufigen Serverproblemen.
301-Weiterleitungsschleifen: Endlose Weiterleitungen können Bots in schleifen gefangen halten und wichtige Seiten unerreichbar machen.
JavaScript und Dynamic Content
Single Page Applications (SPAs) und Websites mit viel JavaScript stellen besondere Herausforderungen dar. Während Google mittlerweile JavaScript gut versteht, haben andere Suchmaschinen oft Probleme damit.
Häufige JavaScript-Probleme:
Wichtige interne Links, die nur via JavaScript geladen werden
Content, der erst nach Nutzerinteraktion sichtbar wird
Navigation, die komplett auf JavaScript basiert
Technische Hindernisse für Suchmaschinen-Crawler
Zugangsbeschränkungen: Passwortgeschützte Bereiche, IP-Filter oder Login-Walls blockieren Googlebot vollständig. Stellen Sie sicher, dass öffentliche Inhalte frei zugänglich sind.
Fehlerhafte Meta-Tags: Versehentliche Noindex-Anweisungen auf wichtigen Seiten führen zum ausschluss aus dem Index. Besonders problematisch sind:
<meta name=“robots“ Content=“noindex“> auf wichtigen Seiten
Falsch gesetzte Canonical tags
Widersprüchliche Anweisungen in verschiedenen meta tags
Umleitungsschleifen: Wenn Seite A auf Seite B weiterleitet und Seite B zurück auf Seite A, entsteht eine endlose schleife. Web Crawlern brechen nach wenigen weiterleitungen ab und markieren die Seiten als fehlerhaft.
Duplicate Content: Mehrere URL’s mit identischen Inhalten verwirren Suchmaschinen. Beispiele:
example.com/seite und example.com/seite/
HTTP- und HTTPS-Cersionen ohne proper Redirects
Parameter-URLs mit gleichem Inhalt
Praktische Strategien zur Crawlability-Optimierung
Eine systematische Herangehensweise an die Crawlability Optimierung beginnt mit der Website-Architektur und erstreckt sich auf alle technischen Aspekte.
Website-Struktur verbessern
Flache Hierarchie implementieren: Wichtige Seiten sollten mit maximal drei Klicks von der Startseite erreichbar sein. Eine flache Struktur hilft Crawlern, alle Bereiche der Website effizient zu erreichen.
Startseite
├── Kategorie 1
│ ├── Produkt 1
│ └── Produkt 2
├── Kategorie 2
│ ├── Produkt 3
│ └── Produkt 4
└── Blog
├── Artikel 1
└── Artikel 2Interne Verlinkung stärken: Jede wichtige Seite sollte mindestens drei interne links von anderen Seiten erhalten. Dies stellt sicher, dass Crawler multiple Wege zu jeder Seite finden.
Breadcrumb-Navigation einbauen: Breadcrumbs verdeutlichen die hierarchie für Nutzer und Crawler gleichermaßen. Sie zeigen den pfad zur aktuellen Seite und verbessern die Navigation.
XML-Sitemap optimieren
Eine XML-Sitemap listet alle wichtigen urls auf und dient als Roadmap für Suchmaschinen. Optimierungstipps:
Nur Crawlbare und Indexierbare URL’s einbeziehen
Prioritäten setzen (0.1 bis 1.0)
Letzte Änderungsdaten angeben
Regelmäßig aktualisieren
In der Google Search Console einreichen
Robots.txt strategisch nutzen
Die robots txt Datei sollte nur unwichtige Bereiche blockieren:
User-agent: *
Disallow: /admin/
Disallow: /thankyou/
Disallow: /cart/
Allow: /
Sitemap: https://ihredomain.de/sitemap.xmlErweiterte Optimierungstechniken
Strukturierte Daten implementieren: Schema.org-markup hilft Suchmaschinen, den Inhalt besser zu verstehen. Wichtige Schema-Typen:
Organization für Unternehmensinfos
Article für Blog-Artikel
Product für E-Commerce-Seiten
LocalBusiness für lokale unternehmen
Canonical Tags richtig einsetzen: Canonical tags definieren die bevorzugte Version bei ähnlichen oder duplizierten Inhalten. Sie helfen dabei, crawl-budget zu fokussieren und Duplicate Content zu vermeiden.
HTTPS durchgängig verwenden: SSL-verschlüsselung ist seit 2014 ein Google-Ranking-Faktor. Stellen Sie sicher, dass:
Alle Seiten über HTTPS erreichbar sind
HTTP-Versionen korrekt auf HTTPS weiterleiten
Mixed Content vermieden wird
Ladezeiten optimieren
Langsame Websites werden seltener und weniger gründlich gecrawlt. Optimierungsmaßnahmen:
CDN nutzen: Content Delivery Networks reduzieren Ladezeiten weltweit
Bilder komprimieren: WebP-format und optimierte größen verwenden
Caching implementieren: Browser- und server-caching aktivieren
CSS und JavaScript minimieren: Unnötige zeichen und kommentare entfernen
Tools und Monitoring für erfolgreiche Crawlability
Regelmäßige überwachung ist entscheidend für langfristig gute Crawlability. Verschiedene tools bieten unterschiedliche perspektiven auf die technische Gesundheit Ihrer Website.
Google Search Console
Die Search Console ist das wichtigste kostenlose tool für Crawlability-monitoring:
Abdeckungsbericht: Zeigt status aller bekannten URL’s
URL-Prüfung: Testet einzelne Seiten in Echtzeit
Crawling-Statistiken: Zeigt Crawl-Häufigkeit und -Probleme
Sitemap-Status: Überwacht eingereichte sitemaps
Richten Sie Benachrichtigungen ein, um bei neuen Problemen sofort informiert zu werden.
Screaming Frog SEO Spider
Dieses desktop-tool simuliert das verhalten von Crawlern:
Crawlt bis zu 500 URL’s kostenlos
Identifiziert technische Probleme
Exportiert Daten für weitere Analyse
Zeigt Website-Struktur visualisiert
Google PageSpeed Insights
Ladezeiten-Optimierung ist Crucial für Crawl-Effizienz:
Analysiert mobile und desktop-performance
Gibt konkrete Optimierungsvorschläge
Basiert auf real user Metrics
Integriert core web vitals
Bing Webmaster Tools
Während Google Marktführer ist, sollten andere Suchmaschinen nicht vernachlässigt werden:
Ähnliche funktionen wie Google Search Console
Zeigt unterschiedliche perspektive auf Crawlability
Besonders wichtig für internationale Websites
Kostenlose alternative sicht auf technische Probleme
Monitoring-Best Practices
Regelmäßige kontrolle: Überprüfen Sie mindestens monatlich:
Neue Crawl Fehler
Indexierungsstatus wichtiger Seiten
Änderungen in der Crawl-Häufigkeit
Performance-Metriken
Automatisierte benachrichtigungen: Konfigurieren Sie Alerts für:
Plötzliche anstiege von 404 Fehlern
Serverprobleme
Drastische Änderungen im Indexierungsstatus
Notfallmaßnahmen bei Crawlability-Problemen
Wenn die Sichtbarkeit Ihrer Website plötzlich einbricht oder wichtige Seiten aus dem Index verschwinden, ist schnelles handeln gefragt.
Sofortmaßnahmen bei Indexverlust
1. Robots.txt überprüfen: Kontrollieren Sie, ob versehentlich wichtige Bereiche blockiert wurden. Ein einfacher Fehler wie Disallow: / kann die gesamte Website unsichtbar machen.
2. Meta-Tags kontrollieren: Suchen Sie nach versehentlichen Noindex-Anweisungen auf wichtigen Seiten. Diese können durch:
Theme-updates
Plugin-Änderungen
Versehentliche Konfiguration entstehen
3. Server-status prüfen: Überprüfen Sie, ob Ihre Website erreichbar ist und keine 500er-Fehler zurückgibt.
Systematische Fehlerdiagnose in 5 Schritten
Schritt 1: Google Search Console öffnen und nach neuen Fehlern suchen
Schritt 2: Betroffene urls identifizieren und kategorisieren
Schritt 3: Ursache eingrenzen (Technical SEO, Content, server)
Schritt 4: Lösung implementieren und testen
Schritt 5: Wiedereinreichung bei Google veranlassen
Google-Richtlinien prüfen
Kontrollieren Sie Manual Actions in der Search Console. Diese manuelle Abstrafungen können Crawling beeinträchtigen oder URL’s komplett aus dem Index entfernen.
Recovery-Timeline verstehen
Typische Wiederherstellungszeiten nach Fehlerbehebung:
Technische Fehler: 1-2 Wochen
Content-Probleme: 2-4 Wochen
Manual Actions: 4-6 Wochen nach Aufhebung
Größere Website-Änderungen: 6-8 Wochen
Dokumentieren Sie alle Änderungen und überwachen Sie die Entwicklung genau. Geduld ist wichtig – Suchmaschinen benötigen zeit, um Änderungen zu erkennen und zu bewerten.
Häufig gestellte Fragen (FAQ)
Wie oft crawlt Google meine Website?
Google crawlt beliebte Websites mit hoher Autorität oft täglich oder sogar stündlich, während kleinere Websites möglicherweise nur wöchentlich oder monatlich besucht werden. Die Crawl-Häufigkeit hängt von Faktoren wie Website-Autorität, Aktualisierungsfrequenz des Contents und technischer Qualität ab. Durchschnittlich crawlt Google etwa 5-10% aller Seiten einer Website pro tag, wobei wichtige Seiten bevorzugt behandelt werden.
Was ist der Unterschied zwischen Crawling und Indexierung?
Crawling ist der Prozess, bei dem Suchmaschinen Bots Webseiten besuchen und den Inhalt lesen, während Indexierung die speicherung und Kategorisierung dieser Gecrawlten Inhalte in der Suchmaschinen-Datenbank bedeutet. Eine Seite kann erfolgreich gecrawlt, aber trotzdem nicht indexiert werden – beispielsweise durch Noindex Meta-Tags oder wenn Google den Content als nicht wertvoll einstuft.
Kann eine Website ohne Crawling in Google erscheinen?
In seltenen fällen kann Google URL’s ohne direktes Crawling indexieren, basierend auf Backlink-Ankertexten oder anderen Signalen. Solche Einträge zeigen jedoch nur die URL ohne Titel oder Beschreibung in den Suchergebnissen und bieten keine vollständigen SEO-Vorteile. Für optimale Sichtbarkeit und Rankings ist ordnungsgemäßes Crawling unerlässlich.
Wie erkenne ich, ob meine JavaScript-Inhalte gecrawlt werden?
Nutzen Sie die URL-Prüfung in der Google Search Console und überprüfen Sie die gerenderte HTML-version. JavaScript-Inhalte sollten im Bereich “Gerenderte HTML” sichtbar sein. Das Fehlerprotokoll unter “weitere Informationen” zeigt spezifische JavaScript-Probleme an. Zusätzlich können Sie Ihre website mit deaktiviertem JavaScript testen, um zu sehen, welche Inhalte ohne JavaScript verfügbar sind.
Welche Seitengröße ist optimal für die Crawlability?
Einzelne HTML-Seiten sollten unter 1 MB bleiben für optimale Crawl-Geschwindigkeit und -effizienz. Während Google Seiten bis zu 15 MB crawlen kann, werden kleinere seiten bevorzugt behandelt und schneller verarbeitet. Große Ressourcen wie videos oder High-Resolution Bilder sollten separat gehostet und per CDN ausgeliefert werden, um die HTML-Dateigröße gering zu halten.