Anmelden und live dabei sein
Anmelden und live dabei sein
Nur Bruchteil aller Websites erreicht gute Ergebnisse
30.04.2021 Mehr als 97 Prozent der Websites in der Google-Desktop-Suche und 85 Prozent in der mobilen Suche fallen unter die Page Experience Benchmarks.
Die Studie, die über zwei Millionen Websites in den Top 20 der Google-Suchergebnisse in Deutschland, den USA, Großbritannien analysiert hat, zeigt, dass es bereits einen positiven Zusammenhang zwischen Seiten gibt, die höher ranken und solchen, die bei den Core-Web-Vitals-Metriken gut abschneiden, was darauf hindeutet, dass Google bereits Websites belohnt, die eine bessere User Experience aufweisen. Laut Searchmetrics werden die Core Web Vitals, sobald das Update ausgerollt ist, noch mehr Einfluss auf das Seiten-Ranking haben.
Googles Core Web Vitals:
Google führt die Core Web Vitals ein, um die reale Web User Experience in drei Bereichen zu bewerten: wie schnell der Inhalt einer Seite lädt, die Reaktionszeit (die Zeit, die benötigt wird, um auf die erste Interaktion eines Besuchers zu reagieren, wie beispielsweise das Klicken auf einen Button oder einen Link) und die visuelle Stabilität (ändert sich das Layout oder der Inhalt). Diese Signale fließen dann in den Suchalgorithmus von Google ein, wobei die Suchmaschine darauf abzielt, Websites, die eine gute User Experience bieten, einen Ranking Boost zu geben.
Das Marktzahlen-Archiv ist ein Premium-Service von iBusiness. Werden Sie Premium-Mitglied, um dieses Chart und viele tausend weitere abzurufen.
Jetzt Mitglied werden"Das Google Core Web Vitals Update ist in vielerlei Hinsicht eine Reaktion auf Websites, die die Erwartungen der User nicht erfüllen. Es ist damit eine klare Botschaft an die Betreiber, dass es sich negativ auswirken kann, wenn die User nicht an erster Stelle stehen", sagt Marcus Tober , Gründer und Chief Evangelist bei Searchmetrics. "Unsere ersten Ergebnisse deuten darauf hin, dass es für die meisten Websites noch viel zu tun gibt, um ihre Usability auf Vordermann zu bringen." Und natürlich müssten sich E-Commerce- und andere Unternehmen darüber im Klaren sein, dass eine gute User Experience nicht nur ihre Google Rankings beeinflusst, sondern sich auch positiv auf ihr Geschäft auswirkt. Sie könne dazu beitragen, die Conversions zu steigern und die Besucher dazu bringen, länger auf der Website zu bleiben, mit ihr zu interagieren und wiederzukommen.
Laut Searchmetrics ist einer der Gründe für eine schlechte User Experience die Zunahme von "Code Bloat" oder unnötigen Codes auf Websites, die mit den, in CMS-Plattformen oder Website-Baukasten-Systemen wie WordPress und Wix enthaltenen Vorlagen erstellt wurden, sowie zusätzlicher Code in Web-Plugins, der die Seiten verlangsamt und Optimierungsprobleme schafft. Ein weiteres Problem sind dynamische Inhalte wie Anzeigen und Newsletter-Opt-In-Boxen, die das Layout von Seiten verändern können, wenn sie nicht richtig implementiert wurden.
Das Marktzahlen-Archiv ist ein Premium-Service von iBusiness. Werden Sie Premium-Mitglied, um dieses Chart und viele tausend weitere abzurufen.
Jetzt Mitglied werdenDie Studie von Searchmetrics zeigt eine Momentaufnahme der Performance von Websites im Vorfeld des Core Web Vitals Updates. Zu den wichtigsten Erkenntnissen, die auf den DE-Ergebnissen der Studie basieren, gehören:
- Die meisten Websites beinhalten zu viele plötzliche Layout-Veränderungen (Cumulative Layout Shift)
Der Cumulative Layout Shift misst, ob sich auf einer Website Elemente laufend verschieben, was zu einer negativen User Experience führt. Die Analyse zeigt, dass die meisten Websites in diesem Bereich schlecht abschneiden. Google kategorisiert einen Wert unter 0,1 als "gut", während unter 0,25 als "verbesserungswürdig" gilt. Alles andere wird als "schlecht" bewertet. Zu den Hauptursachen für Layout-Verschiebungen gehören dynamische Inhalte und Medien-Pop-Outs wie "Jetzt abonnieren"-Boxen oder Anzeigen. Den Daten zufolge erreichen nur die Ergebnisse auf Position null (Featured Snippets) eine "gute" Bewertung. Diese liefern auf Google über den traditionellen organischen Ergebnissen schnelle Antworten auf sachliche Fragen. Platz eins der Google-Suchergebnisse kommt dieser Bewertung nahe, alle anderen Ergebnisse fallen jedoch in die Kategorie "schlecht" (unter 0,25). Der Durchschnittswert der Top-20-Ergebnisse liegt bei 0,32 und ist somit um 215,7 Prozent schlechter als der Wert, den Google mit "gut" bewertet.
- Die Mehrheit der Websites verfehlt Googles Benchmark für eine gute Reaktionsfähigkeit (First Input Delay)
Der First Input Delay misst die Zeit, die eine Website benötigt, um auf eine Besucherinteraktion zu reagieren, beispielsweise, wenn der User auf eine Schaltfläche oder einen Link klickt. Da dies nur gemessen werden kann, wenn ein User tatsächlich mit einer Seite interagiert, schlägt Google vor, die Total Blocking Time (TBT) als Proxy-Messung zu verwenden. Die TBT bewertet die Gesamtzeit, die von Tasks in Anspruch genommen wird, die den Nutzer davon abhält, mit einer Seite zu interagieren (zum Beispiel das Abrufen von Bildern, Videos, Skripten usw.) Die Analyse zeigt, dass die Top-5-Ranking-Ergebnisse eine durchschnittliche Total Blocking Time von 337 Millisekunden haben. Damit sind sie 12,4 Prozent langsamer als die Google-Benchmark von 300 Millisekunden. Der Durchschnitt der Top-20-Suchergebnisse ist mit 430 Millisekunden sogar 43,5 Prozent langsamer als die Benchmark. Lediglich Websites, die in die Top-2-Rankings fallen, liegen durchgehend unter der Performance-Schwelle, die Google mit "gut" bewertet. Demnach gibt es noch eine Vielzahl Asset-lastiger Websites mit langen Ladevorgängen, die die User-Reaktion verzögern.
- YouTube rankt trotz schlechter Core Web Vitals hoch
Die Studie zeigt, dass YouTube derzeit im Hinblick auf die Ladegeschwindigkeit (LCP) sowie die Responsiveness (FID) schlechte Core-Web-Vitals-Werte aufweist. Würden andere Websites ähnlich schlecht abschneiden, würde ihre User Experience als "schlecht" eingestuft werden. Dennoch rankt YouTube in den Google-Suchergebnissen hoch. Dies ist höchstwahrscheinlich auf die große Popularität der Plattform zurückzuführen, die ihr zu positiven User Signals verhilft. Die meisten anderen Websites können es sich nicht leisten, hinsichtlich der User Experience schlecht abzuschneiden, da sie sich nicht auf ihrer Markenbekanntheit ausruhen können.
- Wikipedia könnte das Aushängeschild des neuen Core Web Vitals Updates sein
Wikipedia erfüllt oder übertrifft derzeit die Performance-Schwellenwerte der Core Web Vitals in fast allen Metriken und könnte somit als ein gutes Beispiel für die Web Community dienen. Der schlichte Ansatz der Enzyklopädie-Website beim Webdesign, der hauptsächlich aus Text und Bildern besteht, bedeutet, dass sie auf vielen Websites einen niedrigen Wert für den Largest Contentful Paint aufweist. Sie hat eine gute Responsiveness mit einer Total Blocking Time von null auf vielen Seiten. Diese erreicht sie, indem sie lange Ladevorgänge, die durch Plugins, übermäßigen JavaScript oder große Videodateien entstehen, vermeidet. Außerdem verwendet die Enzyklopädie ein relativ konstantes Layout für die Mehrheit ihrer Seiten und begrenzt durch den Verzicht auf Werbung dynamische Inhalte. Damit leidet die User Experience nicht unter schnell wechselnden Inhalten oder Layouts.
Das einzig positive Beispiel der Studie ist das Abschneiden der Top-20-Websites in den Suchergebnissen in Bezug auf Largest Contentful Paint. Largest Contentful Paint misst, wie lange es dauert, bis das größte Bild oder der größte Textblock sichtbar wird, wenn ein User auf eine Seite klickt. Für eine gute User Experience sollte dies laut Google innerhalb der ersten 2,5 Sekunden geschehen. Die durchschnittliche Ladegeschwindigkeit der Top-20-Websites beträgt sogar nur 2,47 Sekunden.