Aachen Wordpress Website Development


Optimierung der WordPress-Ladezeiten

 

Eine WordPress-Webseite kann pfeilschnell laden oder lahm wie eine Schnecke daherkommen. Woran das liegt und wie man Performance-Schwachstellen entdeckt und behebt, zeige wir Ihnen gerne auf.


Performance von WordPress analysieren

Um WordPress schneller zu machen und Ladezeiten zu optimieren, muss das ganze System auf den Prüfstand gestellt werden. Wir übernehmen gerne für Sie die Analyse, Diagnose und auch die Optimierung von Ladezeiten bei Ihrer WordPress-Webseite.

WordPress schneller machen für bessere Rankings

Sind die Rankings Ihrer WordPress-Webseite in den Google Suchergebnissen eher schlecht als recht, kann das durchaus an der Ladezeit liegen. Ist diese zu schlecht, bevorzugt Google schneller ladende Webseiten. Wir prüfen gerne Ihre WordPress-Installation auf Performance-Schwachstellen.

Google PageSpeed Werte verbessern

Google bietet mit PageSpeed Insights (WordPress) Webseitenbetreibern die Möglichkeit die Geschwindigkeit Ihrer Webseite zu analysieren. Allerdings ist die Auswertung dieses Tools nicht für jedermann verständlich und Optimierungen oftmals schwer umzusetzen.

Gerade bei WordPress-Webseiten können wir Sie dabei unterstützen den Wert bei Google PageSpeed Insights zu verbessern, damit Ihre Webseite generell schneller wird.


Optimierung nach Google SEO Richtlinien – Leistungsbeschreibung

  • gzip-Komprimierung – Alle modernen Browser unterstützen und verhandeln automatisch die gzip-Komprimierung für alle HTTPS-Anforderungen. Wenn Sie die gzip-Komprimierung aktivieren, kann die Größe der übertragenen Antwort um bis zu 90% reduziert werden. Dies kann die Zeit zum Herunterladen der Ressource erheblich verkürzen, die Datennutzung für den Client reduzieren und die Zeit zum ersten Rendern Ihrer Seiten verkürzen.
  • Inline-CSS – Moderne Browser blockieren das externe CSS, bevor Inhalte auf den Bildschirm übertragen werden. Dies verursacht zusätzliche Netzwerklatenz und erhöht die Zeit, die erforderlich ist, um Inhalt auf dem Bildschirm anzuzeigen.
  • Browser-Caching – Das Abrufen von Ressourcen über das Netzwerk ist sowohl langsam als auch teuer: der Download kann mehrere Umläufe zwischen dem Client und dem Server erfordern, was die Verarbeitung verzögert und die Wiedergabe von Seiteninhalten blockieren kann und außerdem Datenkosten für den Besucher verursacht.
  • Ressourcen reduzieren (HTML, CSS und JavaScript) – Minifizierung bezieht sich auf den Prozess des Entfernens von unnötigen oder redundanten Daten, ohne zu beeinflussen, wie die Ressource durch den Browser verarbeitet wird – z.B. Codekommentare und Formatierung, Entfernen von nicht verwendetem Code, Verwenden kürzerer Variablen- und Funktionsnamen und so weiter.
  • Bilder optimieren – Bilder enthalten häufig die meisten heruntergeladenen Bytes auf einer Seite. Infolgedessen kann die Optimierung von Images oft zu den größten Einsparungen bei Bytes und Performance-Verbesserungen führen: Je weniger Bytes der Browser herunterladen muss, desto geringer ist die Konkurrenz um die Bandbreite des Clients und desto schneller kann der Browser Inhalte auf dem Bildschirm rendern und rendern…
  • CSS-Lieferung – Bevor der Browser Inhalte rendern kann, muss er alle Stil- und Layoutinformationen für die aktuelle Seite verarbeiten. Infolgedessen wird der Browser das Rendern blockieren, bis externe Stylesheets heruntergeladen und verarbeitet werden, was möglicherweise mehrere Roundtrips erfordert und die Zeit zum ersten Rendern verzögert.

So sahen unsere Ladezeiten vor Umstellung von Google auf das Lighthouse System aus. Heute sind solche Werte kaum noch zu erreichen, da die Voraussetzungen dafür durch Google selber eingeschränkt werden. Warum macht Google das??

  1. Google möchte das wir auf allen Webseiten das webp Bildsystem nutzen (Googles eigen Erfindung). Was ein Problem darstellt, da dieses nicht von allen Systemen unterstützt wird. Vor allem Systeme wie Safari und Mozills Firefox unterstützen kein webp. Googelt doch einfach mal selber “webp problems with safari and mozilla” und ihr werdet einige nützliche Informationen bekommen.
  2. Umstellung auf AMP (Accelerated mobile pages) durch Google. AMP sind im Wesentlichen verkleinerte HTML-Kopien von bestehenden Webseiten-Inhalten, die schnellere Ladezeiten als Standard-HTML5-Dokumente bieten. Sicher kann man auch gar nix auf der Seite haben, dann lädt diese auch schneller (Sarkasmus aus). Da AMP den Inhalt bis auf die blanken Knochen zerlegt und alles auf Googles Server hostet, beginnt alles gleich auszusehen. Das bedeutet, dass gefakte Artikel und Phishing-Clickbait-Storys direkt neben legitimen Nachrichten erscheinen können.Die Frage ist, ist AMP immer noch ein Ding? Oder wird es so enden wie so viele andere Google-Projekte (Google Glasses, Google Wave, Google Hangouts, Google+ usw.)
    Also, viele Webmaster sind skeptisch, AMP auf ihren Webseiten einzusetzen. Aber das AMP-Projekt ist immer noch nicht vollständig entwickelt und geht weiterhin auf Bedenken von Webmastern ein, die Probleme hatten, AMP korrekt in ihre Website zu implementieren.
  3. Umstellung der Cookie Gesetze. Nunmehr werden auf unseren Seite erst einmal alle Inhalte durch das Borlabs Cookie geblockt. Was sind diese Kekse und warum nutzen wir die ?? Einfache Antwort, es ist seit der DSGVO Verordnung Gesetz und es wird niemanden eine andere Möglichkeit geboten. Warum dann nicht einfach Cookie-freie Domänen verwenden??? Hintergrund: “Wenn der Browser ein statisches Bild anfordert und mit der Anforderung Cookies sendet, ignoriert der Server die Cookies. Diese Cookies sind unnötiger Netzwerkverkehr. Um dieses Problem zu umgehen, stellen Sie sicher, dass statische Komponenten mit Cookie-freien Anfragen angefordert werden, indem Sie eine Subdomain erstellen und sie dort hosten.” Könnte man machen, aber erst einmal dies viel Arbeit und zum anderen stellt sich die Frage wie rechtssicher sind solche Konstrukte.
  4. Ein weiterer Grund warum unsere Webseite nunmehr ein schlechtes Google Pagespeed Rating hat, ist die Größe der Seiten. Unsere Homepage alleine ist zwischen 17MB und 18MB groß, da wir hier unter anderem ca. 40 Referenzen in unseren Slider eingebaut haben. Dies ist ein Service für unsere Kunden, damit die sehen was so gemacht in der Vergangenheit wurde. Die “Bildchen” sind natürlich für Google wahnsinnig uninteressant und es muss auch entsprechend mehr “gecrawlt” (indexiert) werden. Da wir aber unseren Kunden auch etwas mehr als RAW DATA bieten wollen, haben wir diese Bilder (mit der entsprechenden Verlinkung) eingefügt. Trotz der großen Seite haben wir aber weiterhin eine Ladezeit die 2,87 Sekunden liegt (unter 2 Sekunden wäre wünschenswert aber so issset halt, wenn man die Webseite interessant gestalten möchte. Hier ist auch der Ladezeitenbericht.

Wir haben uns also gegen ein gutes Resultat bei Google und für ein besserer Interaktion mit dem Benutzers ausgesprochen. User Experience (UX) konzentriert sich auf ein tiefes Verständnis der Benutzer, ihrer Bedürfnisse, ihrer Wünsche und das was für diese wichtig ist…… Die Best Practices von UX fördern die Verbesserung der Qualität der Interaktion des Benutzers mit Ihrem Produkt und den damit verbundenen Dienstleistungen und deren Wahrnehmung.