Blogger World

Blogger World bietet wertvolle Blogger-Tipps, Informationen und Anleitungen für richtiges Bloggen

Webmacht Google™ bringt das Page Speed Ranking

03/12/2009 at 18:39 | Blog, Internet | Thomas

Page Speed Ranking wird das neue Zauberwort in Zusammenhang mit der Webmacht Google™ werden. Wie angekündigt fließen demnächst auch die Geschwindigkeit der Webseiten mit in den Ranking Faktor ein. Im Webmaster-Tool von Google™ ist es im Bereich Google Labs unter Website-Leistung zu finden. Eine grafische Leistungsübersicht zeigt uns den Überblick und die momentane Ladezeit.

Heute Morgen habe ich es schon in dem Artikel „Google Webmaster-Tools helfen jetzt beim Verbessern der Ladezeiten“ gelesen, das sich dort was tut. Es ist aber umso schöner, das Google™ sich nicht nur aufs Nörgeln beschränkt und eine Hilfe anbietet. Dieses ist im Webmaster-Tool zu finden und auch der Link für das Add-on. Das Page Speed Browser add-on könnt ihr aber auch direkt installieren.

Dieses Tool funktioniert leider nur zusammen mit dem Firebug Add-on. Beides eingebunden habt ihr dann die Möglichkeit, eure Seiten zu testen. Der Eindruck ist recht passabel, nur dort spätestens werdet ihr merken, dass ein tieferes Wissen notwendig wird um die Optimierung durchzuführen. Also schaut es euch einfach mal an und lasst euch überraschen. Ich war verblüfft wie schlecht mein Blog optimiert ist.

Wenn ihr es schon eure Testergebnisse habt, teilt sie uns mit. Es gibt sicher einige Tipps die man geben kann um auch der Webmacht Google™ wieder mal zu gefallen. Also lasst uns unsere Blogs und Webseiten hübschen oder?

Interessante Artikel:

Tags: , , , , , , , , , , ,
« Die Keyword Optimierungs Recherche

Professionelle Fotografien bauen den längsten Tunnel »

74 Kommentare bei “Webmacht Google™ bringt das Page Speed Ranking

  • Gibt jetzt wieder richtig Futter für die Webseiten-Optimierer: Google plant ja gerüchteweise die Seitenladezeiten im Ranking mit zu berücksichtigen…

    Also viel Platz für Optimierungen, wenn man ein richtiger Webmaster sein will.

  • Ich kann sogesehen nicht klagen:
    Im Durchschnitt benötigen Seiten auf Ihrer Website 2,7 Sekunden zum Laden (aktualisiert am 01.12.2009). Dies ist schneller als 54 % der Websites.

    Yeah me 🙂

  • @Kim
    Das wird auch kommen und dann werden einige ganz schön zu kämpfen haben. Einfach wird es auch nicht werden, doch ich rechne damit, das es dann nur noch Premium Themes geben wird.

    @Marc
    Gratulation ich habe da ein paar andere Werte:
    Im Durchschnitt benötigen Seiten auf Ihrer Website 0,7 Sekunden zum Laden (aktualisiert am 30.11.2009). Dies ist schneller als 93 % der Websites. 😉

  • Ist ne schöne Spielerei. Aber der speedfaktor ist schon sehr wichtig. Gibt immer noch leute die mit modem unterwegs sind und dann die seite wieder schließen wenn Sie nicht fertig geladen wird.

  • @Sandra
    oder doch Sabine? Ist ja auch egal.
    Das ist keine Spielerei und wenn nicht mit Modem mit UMTS Karten und es sollte eigentlich so sein, das jeder die Seite aufbekommt.
    Einige werden Probleme bekommen, doch wird es sicher nicht zum obersten Punkt des Ranking werden, sondern einfach nur mit einfließen.

  • Im Durchschnitt benötigen Seiten auf Ihrer Website 7,2 Sekunden zum Laden (aktualisiert am 01.12.2009). Dies ist langsamer als 86 % der Websites.

    :-

    Muss mal unbedingt mein Theme ändern und weiter optimieren. Ich gehe aber davon aus, dass ihr recht haben werdet. 🙂 Wird noch spannend werden. 😉 Dann gibt es die Speed-SEO-Freaks 😀

  • Bei mir steht noch ganz viel Arbeit an. Den Blick in die Webmaster-Tools habe ich noch nicht gewagt. Ich weiß von einem anderen Tool (komme grad nicht auf den Namen) das mein Blog ein lahmer Sack ist! 🙂

  • @Big2k
    Das ist aber echt lange. Upss da mußte aber noch was machen oder willst du es so lassen?
    Jawohl dann werden nehmen alle SEO’s Speed 🙂 Ich finde dein Theme ja gut ist CSS3 und strict gebaut. Also wenn du da ein bischen was an Zeit investierst wird das sicher
    gut abgehen.
    @Piet
    Ich habe mich auch hintenüber geschlagen Piet als ich meine Seiten getestet habe. Denn die Query LAdezeit sagte immer <1 sekunde doch das laden der Bilder und der externen Sachen.
    Doch mit ein bischen Spucke bekommen wir das schon hin. Du weisst bin da wenn ich helfen kann.
    Es werden jetzt sicher einige neue Tools aus dem Boden schiessen oder wieder an Wirkung gewinnen. Doch allein bei den Bildern liegt ein großes Problem.
    Die Avatare sind meist zu groß und nicht optimiert. Das ist ein großer Posten bei vielen Kommentaren. Da sollte sich mal Gedanken machen.

    Ps. Der Artikel ist natürlich nach meinem letzten Artikel optimiert. Webmacht Google als Suchbegriff und ich stehe vor dem Stern 🙂 freu…..

  • Einer muss ja Erster auf dem letzten Platz sein:

    Im Durchschnitt benötigen Seiten auf Ihrer Website 11,0 Sekunden zum Laden (aktualisiert am 01.12.2009). Dies ist langsamer als 94 % der Websites …

    Mal abwarten was da noch so kommt.

  • Im Durchschnitt benötigen Seiten auf Ihrer Website 3,5 Sekunden zum Laden (aktualisiert am 01.12.2009). Dies ist langsamer als 58 % der Websites.

    Hm 🙁

  • Nachtrag: Bei mir bemängeln sowohl Google als auch FireBug den Speed von Gravatar, mal schauen, ob man das cachen kann

  • @Capt. Chaos
    Schön gesagt 🙂 was da noch kommt. Da warten alle drauf und ich bin gespannt was dann beim nächsten Update BL’s usw läuft.
    Wenn sie langsame Seiten mit Backlinks einfach nicht mehr einlesen. Das kann für einige bitter ausgehen.
    @Gilly
    3,5 Sekunden ist doch eine gute Zeit. Man darf nicht vergessen als 58% aller Webseiten die Google anerkannt hat und das sind reichlich.
    Solltest du Erfolg haben mit dem Avatar Cache sage bitte bescheid das nörgelt er bei vielen an glaube ich incl. mir .

  • Hab jetzt mal mit http://www.linkvendor.com/seo-tools/speedtester.html meine Seite (und einige andere hier aus den Kommentaren) gemessen, weil ich a) mit dem PageSpeed-Plugin im Firebug nicht so ganz klar komme (ganz ehrlich, hab ich auch nicht wirklich intensiv geguggt) und b) mich nicht nur auf eine Quelle verlasse…

    Also laut obiger Seite lädt mein Blog in 1.84 Sekunden (bezogen auf die Hauptseite).

    Zum Vergleich: Gilly bringt es auf 2.37 Sekunden 🙂

  • @Kim
    Laut Linkvendor braucht meine Seite 2,2 Sekunden. In anderen Tools werden mir auch wieder andere Werte angezeigt.
    Sollte man Hyper Cache etc nutzen ist ein 2ter Test angesagt, doch wenn Besucher das erste mal auf der Seite sind bekommen sie ja auch was frisches.

    Ich bin mal gespannt wann Google Änderungen erkennt und es in den Webmaster-Tools darstellt. Es wird noch einiges dauern bis es sich als normal in unser Internet eingliedert.
    Doch wenn wir mal an den Anfang zurück denken.. Da W3C das große undurchdringliche und inzwischen sind wir alle W3C oder nicht?

  • Huhu zusammen. Ich bin mit Page Speed und Firebug auch nicht 100% klargekommen. Zumindest habe ich aber jetzt bei 2 unterschiedlichen Tools identische Ergebnisse gehabt nachdem ich eine Weile an meinem Blog geschraubt habe.

    Linkvendor gibt mir einen Wert von 4.14 Sekunden aus. Den selben Wert von 4.1 Sekunden hat auch http://tools.pingdom.com ausgeworfen. Gestern, bevor ich mich mit der Geschwindigkeit befasst habe kamen da noch Werte von mehr als 28 Sekunden zustande. Ich glaube da bin ich auf dem richtigen Weg 🙂

  • @Piet
    Also sieht man doch wie schnell es eigentlich gemacht ist oder?
    Klar das wir an bestimmten Sachen jetzt noch den Feinschliff einstellen müssen, doch ist es schon ein wahnsinns Erfolg den du durch deine Optimierung gemacht hast.
    Es ist aber auch allen klar das man egal mit welchen Tool man eine Messung vornimmt wir immer wieder andere Werte erhalten können. Nutzt euch das einfachste, welches
    ihr am besten umsetzen könnt. Dann steht der nächsten Einlesung von Tante Google™ nichts mehr im Weg 😉

  • @Thomas das theme gefällt mir auch eigentlich, nur wo ich beim optimieren anfangen sollte weiß ich noch gar nicht 😐 werde wohl plugins raushauen und grafiken optimieren. wenn gilly was mit gravatr schafft, dann wäre ich ja auch eine last los. abwarten.

  • @Big2k
    Ich habe auch bei den Bildern angefangen. Dazu nutze ich WP Smush.it, da ist es eigentlich recht einfach ein bischen zu sparen.
    Nach ein paar Bildern habe ich schon gesehen wieviel dadurch reduziert wird und es war einfach.

    Ich hoffe Gilly denkt an uns, damit wir da optimieren können.

  • lt. Google braucht meine Seite um die 12 Sek. und lt. http://tools.pingdom.com nur wenige Sekunden. Mal sehen ob ich noch andere Ergebnisse bekomme 😉 ansonsten habe ich wohl an meinen Freizeittagen noch etwas zu optimieren, sofern ich das für notwendig halte.

    Toller Artikel @Thomas

  • @Chris
    Vielen dank das er dir gefällt.
    Ich habe da eine Ladezeit von 8,5 Sekunden. Zu optimieren haben wir glaube ich alle etwas 🙂 doch dafür sind wir ja im Internet unterwegs.
    Wenn alles Super wäre und ein Selbstläufer wären wir auch nicht zufrieden.

  • Meiner Meinung nach eins der besten Tools um die Performance einer Webseite zu checken, ist das Firefox-Plug YSlow.

    Das Plug zeigt eine Menge Infos über verschiedene Performance-Schlucker wie zB: HTTP requests etc. an und gibt auch Empfehlungen zu Optimierung. Greift übrigends auch auf die Yahoo! Smush.it API zu.

    Wers noch nicht kennt: https://addons.mozilla.org/de/firefox/addon/5369

  • @Francis
    Vielen Dank werde ich mir doch direkt Morgen mal anschauen 🙂
    Wenn wir noch mehr Tools zusammen finden werde ich sie mal alle unter Downloads einstellen. Ist dann sicher interessant sie immer als Link parat zu haben.

    Komisch finde ich allerdings, dass der Google™ Friend Connect auch auf Rot steht und mit seinem CSS was nicht in Ordnung ist. Also müssen wir die Dinge
    für sie auch noch optimieren 😉 oder wieder entfernen.

  • Ach ja, YSlow setzt auf Firebug auf, muss also vorher installiert werden 🙂

    Firebug: https://addons.mozilla.org/en-US/firefox/addon/1843

  • @Francis
    Also bei mir lies es sich sofort nutzen. Hatte ja auch schon Firebug drauf machen müssen.
    Das beste ist es für mich, Smash.it alle Bilder sofort mit einem mal zu optimieren. Schön sortiert in Ordener zum hochladen 🙂
    Es gibt noch Tools für Laien wie mich.

  • Habe auch irgendwo ein offizielles Statement seitens Google gelesen, dass der Pagespeed bei positivem Erscheinen zum Ranking beiträgt. Im gleichen Zusammenhang war aber auch erwähnt, dass Webmaster von langsamen Seiten nicht befürchten brauchen, dass ihre Seiten bei Google abschmieren oder aus dem Index fliegen. Bei langsamen Seiten wird halt dann kein Ranking-Faktor an dieser Stelle vergeben.

    Im großen und ganzen heißt das aber trotzdem, dass man eher auf kürzere Ladezeiten setzen sollte, denn wenn dies alle tun, steht ja der Webmaster mit der langsamen Seite an letzter Stelle (Bildlich betrachtet).

  • @alte kiehvotz
    Es gibt immer wieder mal Aussagen dazu, doch wird nicht immer alles genau erzählt.
    Heisst aber das die Suche sich ändern wird und wir alle was davon merken werden. Der eine Mehr der Andere weniger. Sie können ja das Internet
    nicht einfach abschalten. Ich glaube Heute wird es ein offizielles Statement dazu geben.

    Warten wir mal ab was die Zeit so bringt.

  • Ich habe in den Webmaster Tools auch eine super besch… Zeit: 4,4 Sekunden.
    Den Wikio Button in den Beiträgen habe ich schon rausgeworfen am Wochenende (ist ja extern) = 0 Änderung.
    Datenbankabfragen habe ich durch Cache ja auch schon vor längerem auf ein Minimum reduziert. Jetzt habe ich wirklich keine Ahnung mehr was ich noch tun soll.
    Das was dieses Yslow Add on auswirft verstehe ich ehrlich gesagt ganz und gar nicht 🙁

  • @Crazy Girl:

    Die Webmaster-Tools hängen der Realität wohl mehr hinterher, als sie es zeitlich vorgeben, dass sie es tun:

    Ich habe meine Seite bereits im Verlauf der letzten Woche bzgl. der DNS-Anfragen z.B. optimiert – was sich in vielen Codeänderungen niederschlug.

    Ergebnis ist, dass Google selbst noch sagt, ich hätte soundsoviele DNS-Lookups und bei den Details genau die immer noch auflistet, die ich definitiv verändert habe.

    Scheinbar nehmen die ihre Daten aus irgendwelchen Caches oder so… also irgendwo nicht ganz so der Hit wie mir scheint.

    Andere Mess-Tools ergeben eine Beschleunigung im Ladeverhalten.

  • @Crazy Girl
    Hallo Tanja,
    ich habe 2 Meldungen die für dich leicht zu ändern sind. CSS optimieren. Beim Original Page Speed zeigt er es an und gibt Rechts direkt den besseren Code raus. Das ist auch
    bei deinen WP-Page Numbers angegeben. Dann noch der “Optimize the order of styles and scripts” Fehler ist ein Klacks für dich. Du hast nur eine Rote Meldung alles andere ist doch gut.
    Ausserdem nehmen sie im WT den Quantil und das stimmt eh nicht so sauber. Einmal schlecht erreichbar dann ist schon Ende.
    @Kim
    Ich habe eigentlich auch andere Werte doch nicht die Aktuellen. Da hängen sie nach auf jeden Fall. Wie hast du das mit den DNS-Anfragen denn gelöst? Da habe ich gar keinen Ansatz.
    Das Experiance sollte man sich nochmal anschauen, doch da steckt in allem ohne Ende Zeitaufwand hinter.

  • @Tanja: Gemach, Gemach 🙂 Kaum schieb Google mal wieder ein neues Spielzeug rüber, geht der Optimierungswahnsinn wieder los. Las den Wikio Button ruhig mal drin, dafür wirst Du sicherlich nicht bestraft.

    Drülfundneunzigtrillionen Webseiten haben “schlechte” Werte. Das Ding in den Webmaster Tools wirft zudem definitiv keine realen Werte raus, wie so vieles in den WMTs.

    Wenn ich mir die Performance von “großen” Seiten wie mashable.com, chip.de, etc. anschaue, müsste Tante G mit einen Herzinfarkt Rückwärts vom Stuhl kippen und die Seiten auf die hinternen Plätze verweisen, qutasch, die Seiten als unzumutbar deklarieren und für alle Zeiten aus dem Web verbannen. Das wird jedoch sicher nicht passieren!

    Auch mit allen Künsten der Optimierung, sind viele Seiten einfach nicht schneller zu machen. Und dann gibt es auch noch (die Mehrheit) Webmaster die keine Ahnung von der Materie haben und überhaupt nicht wissen woran sie schrauben müssten.

    Unwissenheit schützt vor Strafe nicht? Quark, kann sich Google nicht erlauben.

    Deine Seite produziert 25 http requests bei 134,4 K und einmal im Cache nur 40,9 K. So, where the problem? 🙂

  • @Francis
    Wir sind ja Gemach, doch müssen wir erstmal verstehen was zu machen ist.
    Nicht alles ist mal eben gemacht und wenn wir es jetzt nicht machen, dann schieben wir es wieder nach Hinten.
    Ich glaube das diese Geschwindigkeit wichtig wird für den ab Q1 kommenden Real Search von Google™ mal sehen was kommt.

  • @Thomas:

    Mein Problem war, dass ich in meiner Button-Leiste einfach nur den vorgeschlagenen Code übernommen hatte (den höchstens noch W3C-Konform machte). Das Resultat war halt, dass die Grafiken vom Ursprungsserver geladen wurden – ergo für jeden Button ein eigener DNS-Lookup fällig wurde, wenn der Button nachgeladen werden sollte.

    Nun habe ich das Problem folgendermaßen umschifft, dass ich zum einen die Button-Grafiken lokal gespeichert habe (warum ich das nicht direkt getan hab, frag mich mal… k.A.) und zum anderen jetzt so nach und nach dabei bin, das Blog umzubauen, dass die statischen Elemente der Seite von einer eigenen Subdomain geladen werden.

    Das wiederum hätte nämlich den Vorteil, dass die Seite nochmals schneller lädt, weil die Begrenzung in den Browsern (viele Browser sind so eingestellt, dass sie max. 8 Verbindungen pro Server zulassen) “erweitert” wird, also quasi effektiv mehr Daten pro Zeiteinheit fließen können, wenn Platz dafür da ist.

    Es war kein großer Zauber, brachte aber bei der Ladezeit der Seite schon eine Kleinigkeit, die grob gerechnet 20% Einsparung an Zeit brachte (wenn ich den anderen Tools vertrauen darf 🙂

  • @Kim
    Ah doch so wie ich gedacht habe. Ich mache auch alles nur W3C Konform. Na ist ja meist schnell erledigt und sieht alles Grün immer gut aus.
    Mit der Subdomain ist mir zuviel Arbeit, da ich noch Altlasten wegen dem Theme Wechsel habe. Also Stück für Stück. Das nächste wird es bei mir auch sein
    die Images alle auf den Server zu ziehen und vorher nochmal zu smashen, dann habe ich es direkt beides zusammen erledigt.

    Wenn jetzt das noch mit den Gravataren klappt mit dem Cachen wäre es super cool.
    Es gibt noch einiges zu tun, doch wie Francis schon sagt wir lassen uns nicht treiben aber vergessen sollten wir es auf keinen Fall.

  • Jupps… eigentlich ne einfache Geschichte.
    Ich wollte jetzt mal noch schauen, ob ich evtl. bei meinem Paket von cyon den Server auch noch irgendwie optimieren kann für die Auslieferung statischer Dinge… Hier sollte sich auch noch eine Kleinigkeit tun lassen.

    Ansonsten bin ich rein vom Gefühl her mit dem Ladeverhalten meines Blogs zufrieden. Ich kann hier nicht sagen, dass irgendwo was bremst oder so.

  • @Kim
    Heute ärgert mich mein FF ganz schön. Die wollen das wir optimieren, damit sie ihre Sachen schneller auf den Markt bekommen. Mobile Search etc 🙂
    Ich finde solange die Seite keine 10 Sekunden lädt und sofort etwas zu sehen ist passt das schon. Deine Seite ist doch auch schnell da und das ist doch OK.
    Wir leben im Zeitalter von VDSL und nur wegen der Mobilen Geräte?

    Mein Server steht bei Hetzner und ist schnell genug. Meine Query liegt unter 0,5 Sekunden und das ist Sehr gut finde ich.

  • @Thomas: hm… mit diesem Page Speed komme ich gar nicht klar. Ehrlich gesagt sind alle Firefox Addons für mich nur “Bahnhof”. Ich verstehe sie nicht und habe auch diese andere Addon nicht, das man angeblich dafür braucht. Also, ich kann es noch nicht mal anwerfen.

    Somit kann ich leider den Punkt “CSS optimieren. Beim Original Page Speed zeigt er es an und gibt Rechts direkt den besseren Code raus.” ganz und gar nicht nachvollziehen. 🙁

    “Das ist auch bei deinen WP-Page Numbers angegeben.” Das Plugin habe ich vorhin eh schon rausgeschmissen. Ist unnötig.

    “Optimize the order of styles and scripts”: Keine Ahnung, was damit gemeint ist. Da in den Webmaster Tools aber ausschließlich nur Analytics, Adsense und Amazon meckert nehme ich an das sind die externen, auf die ich ja keinerlei Zugriff habe. Meistens meckern hier auch die Plugins und Plugins umschreiben und jedes Mal neu umschreiben wenn ein Update kam ist ja nicht wirklich sinnvoll, oder?

  • @Crazy Girl
    “Optimize the order of styles and scripts”: heisst einfach erst das CSS dann das Javascript im Header. Ist nur die Reihenfolge, damit das Bild da ist und das Format bevor was anderes geladen wird.
    “CSS optimieren” habe ich einfach den Codevorschlag von dennen genommen und siehe da geht auch, dabei werden sicher die Kommentare im CSS entfernt, denn was anderes habe ich nicht erkennen könne.

    Ich habe auch die Add On installiert doch macht mein FF immer öfter schlapp. Also werde ich mal schauen wenn sie neu eingelesen haben. Wenns wieder ein wenig runter geht ist gut wenn nicht
    glaube ich trotzdem das mein Blog schnell ist. Bei dir könnte ich mir nur vorstellen, das die Hintergrundbilder vielleicht noch schneller kommen könnten.
    Doch es ist wie gesagt alles schnell genug finde ich.

    Wenn mein Blog noch besser wird LOL dann will ich auch zig mal mehr Besucher von Go haben oder ich ruf da mal an 😉

  • @Francis: Klar, Not tut das sicherlich keine. Mich hat nur ein wenig sportlicher Ehrgeiz erwischt *kicher*. Mein Shop steht übrigens auf 1,0 Sekunden und keine Ahnung warum. Ist aber auch egal, ich freu mich einfach 😉

    “Deine Seite produziert 25 http requests bei 134,4 K und einmal im Cache nur 40,9 K.”: Ist das gut?

  • “Optimize the order of styles and scripts”: heisst einfach erst das CSS dann das Javascript im Header. Ist nur die Reihenfolge, damit das Bild da ist und das Format bevor was anderes geladen wird.
    Hm… das hab ich eigentlich genau so, also erst CSS, dann Javascript. Nur leider scheint das dieses Programm von Dir nicht so zu sehen 🙁

    “CSS optimieren” habe ich einfach den Codevorschlag von dennen genommen und siehe da geht auch, dabei werden sicher die Kommentare im CSS entfernt, denn was anderes habe ich nicht erkennen könne:
    Ich kann das leider nicht nehmen, weil ich es nicht habe. Wie gesagt, ich stehe mit Firefox und seinen Addons auf Kriegsfuß.
    Kommentare im CSS zu entfernen halte ich für schwachsinnig. Man macht sie ja aus bestimmten Gründen rein 😉

  • @Crazy Girl
    Siehste jetzt habe ich auch eine lange Ladezeit Gravatar ist wech.. Naja was solls eben ausgeschaltet und warten wir mal.
    Ok dann erkennt das Script es nicht mit der Reihenfolge. Sollte aber auch nicht schlimm sein. Habe es ja nur genommen, da es angezeigt wurde.
    Der CSS Vorschlag ist wie der aus dem WBT Tool die arbeiten auch damit. Kommentare aus dem CSS zu entfernen ist eigentlich nicht gut. Doch ich habe
    mir ja von allem ne Kopie gemacht 😉

  • Also in den WMTs habe ich nur sinnlose Vorschläge:

    – Analytics, Adsense und Amazon Javascripts mit gzip komprimieren: Wie soll das denn gehen, läuft ja gar nicht bei mir, sonderen bei denen?

    – 2 externe Javascripts von Amazon zusammenfügen: Da habe ich ebenfalls keinen Einfluß darauf…

    – Externe DNS Lookups minimieren von: Wikio, Adsense, Analytics, Amazon und Gravatar.
    Okay, den noch verbliebenen Wikio Button werde ich demnächst eh entfernen (aber aus anderen Gründen), beim Rest habe ich so gut wie keine Einflussmöglichkeiten.

    Das sind die einzigen Vorschläge die bei mir in den WMTs auftauchen und sorry, die sind doch ziemlich Banane, oder? Von CSS Vorschlägen etc. ist hier nichts zu finden.

  • @Crazy Girl:

    Im Grunde liefern sie schon “Ideen”, wo man mal ansetzen kann… aber im Grunde ist es alles sehr… naja… was sie da von sich geben.

    Externe Scripte, die extern bleiben müssen, weil sie dynamisch verändert werden z.B. kann man ned optimieren. Ist halt so… fertig ab.

    Ich würde mich da mal nicht zu sehr auf solche Dinge versteifen, sondern vielleicht Optimierungen vornehmen, die effektiv im Browser auch was bringen – wie das oben angesprochene Auslagern statischer Elemente auf eine eigene Subdomain, die wieder vom Browser mit der vollen Anzahl an maximalen Verbindungen benutzt werden kann.

  • Sorry Kim, jetzt stehe ich auf dem Schlauch, was meinst Du mit “Auslagern statischer Elemente auf eine eigene Subdomain”?

  • Dass du z.B. die Grafiken nicht von http://www.crazytoast.de lädst, sondern von img.crazytoast.de (zur noch img1, img2… wenn es sehr viele Grafiken sind).

    Die Browser (wenn sie in den Grundeinstellungen belassen werden), bauen zu jedem Server maximal nur 8 bzw. beim Firefox sogar nur 6 Verbindungen gleichzeitig auf.

    Das bedeutet, wenn ich www ansurfe, bekomme ich zunächst mal 8 Datenströme, die mir schon mal 8 Teile der Seite liefern (in der Regel den HTML-Code und die ersten Teile von oben). Sobald einer der Ströme mit seinem aktuellen Element fertig ist, lädt er das nächste, es sind aber immer nur 8 Datenströme gleichzeitig.

    Wenn ich jetzt z.B. statische Elemente wie Hintergrundgrafiken oder sonstige Grafiken aus dem Theme oder dergleichen auf eine eigene Domain lege und diese von dort lade, habe ich gleich 8 Datenströme mehr, was sich durchaus bemerkbar macht.

    Dieses Verfahren wird bei den großen Webseiten eigentlich schon seit Anbeginn des Internets so benutzt.

    Man kann zwar (im IE z.B. über die Windows-Registry, im Firefox über about:config) die Anzahl der Verbindungen hochsetzen, aber das macht ja kaum ein normaler Nutzer.

    Da wir als Webseiten-Auslieferer ja immer davon ausgehen, dass der Nutzer seinen Browser “im Lieferzustand” betreibt, wäre das ein ganz legitimer Trick, die Download-Zeit zu reduzieren.

  • @all
    Das Script von dem Google™ Friend Connect ist auch schlechtes CSS schreiben sie bei mir 🙂
    @Crazy
    Kim meint du sollst externe Bilder auf deinen Server speichern damit es alles nur aus einer Quelle kommt.

  • @Thomas:

    Das auch, aber nicht nur… auch wie oben beschrieben, war gemeint.

  • @Kim
    Sorry dein Komment war im Spam gelandet wegen dem Link, deswegen habe ich es erst nach meinem gesehen.
    Für die Mainpage brauche ich fast nur interne Images also sind es so um die 4 Stück extern. Die lade ich mir noch runter und gut muss sein 🙂

  • Ah Kim, Danke, das ist interessant. Das bedeutet ja praktisch, dass ich max 8 Bilder auf eine Subdomain klatsche und mir so mehrere Subdomains (je nach Anzahl der Bilder) anlege und von dort meine Bilder lade.
    Das mit den externen ist klar, die sollten intern sein 😉
    Wieviele Bilder pro Subdomain würdest Du empfehlen? 5 oder 8?

    Da fällt mir gerade nochwas dazu ein. Die Bilder, die wir in den Artikeln verwenden, die ja eigentlich unter wp-content/uploads/ etc. liegen. Die auch auslagern auf eine Subdomain?

  • @ Tanja: “Deine Seite produziert 25 http requests bei 134,4 K und einmal im Cache nur 40,9 K.”: Ist das gut?”

    Klar ist das gut, z.b. chip.de produziert 115 http und 576 k. alles unter 100 ist ok, vorausgesetzt Dein Server ist nicht von 1998 oder klebt an einem Simbawe Backbone 🙂

    Bei denen kann man sicherlich auch noch etwas optimieren, aber in dieser Größenordnung und bei euren Werten, wird das nie ein Grund sein der das Ranking negativ beeinflussen wird!

    Wikio Button, Pagebar etc. rein oder raus macht den Braten nicht fett 🙂

    Sollte ich mich irren, dürft Ihr zwei Tage auf mich schimpfen wie wild 🙂

  • @Crazy Girl:

    Oha, so mit konkreten Anzahlen kann ich dir das gar nicht sagen, weil in der Praxis läuft das eh so ab, dass alle Images auf jedem Server zu finden sind, weil quasi die Servernamen im Grunde ja dann doch nur CNAME-Einträge auf den Ursprung sind. Man gaukelt dem Browser ja nur einen neuen Server vor.

    Professionelle CMS übernehmen hier so weit ich weiß sogar selbständig das Management. WordPress kann mit dem W3-Total-Cache ebenfalls sogenannte CDN (Content-Distribution-Networks) nutzen.

    Große Webseiten speichern ja mit Vorliebe ihre Grafiken und Mediendateien extern bei dick angebundenen Anbietern wie z.B. Amazon oder dergleichen.

    Ich persönlich würde es vielleicht erstmal so halten, dass ich die Grafiken, die in den Themes stecken und eben die Buttons, die so von extern “beigeflickt” werden, auslagern würde, das macht bei mir derzeit ein Verhältnis im übertragenen Traffic von 1:5 aus, sprich: 1/5 der Last des Blogs läuft über img, 4/5 über blog…

    Da ich derzeit selbst noch ein wenig damit experiementiere, kann ich noch gar nicht so richtig sagen, wo evtl. für ein Blog ein sinnvoller Wert bei der Anzahl der Subdomains (=Server) gegenüber der Anzahl der Bilder die von diesen geladen werden, liegt…

  • @Francis:

    Es muss nicht immer um’s Ranking gehen 🙂 Wenn man die Ladezeit einer Seite um 50% reduzieren kann, ohne Funktionalitäten zu verlieren, dann ist das durchaus auch erstrebenswert – ob’s Auswirkungen aufs Ranking hat ist da glaube ich total Nebensache.

    Es hat nämlich Auswirkung auf die Kundenzufriedenheit.

  • @Francis: Ich sehe das wie Kim. Mir persönlich ist bei solchen Aktionen beim Blog das Ranking zweitrangig, viel wichtiger ist, dass die Besucher zufrieden sind. Aus einem solchen Grund entferne ich auch Buttons (wie z.B. Wikio), wenn ich feststelle, dass die keiner wirklich gerne mag. Warum etwas einbinden, wenn es keine S… interessiert 😉

    Ich hattee aufgrund meiner etwas größeren internen Verlinkung enorm viele Datenbankabfragen und habe diese dann vor längerem alle in unterschiedliche manuelle PHP Caches gepackt, die sich dann einmal täglich oder auch seltener, je nach meinem Wunsch updaten. So habe ich mittlerweile auf der Startseite insgesamt 42 queries und in den einzelnen Artikeln 54 queries. Vorher hatte ich gut das dreifache davon. Blöd ist, dass von WordPress alleine schon 35 queries davon kommen, die man kaum noch reduzieren kann. Die sind also schon da, bevor überhaupt irgendwas im Template geladen wird (query Abfrage im Head Bereich).

  • @Kim: Kundenzufriedenheit ist sicherlich ein Argument was zählt.

    Wer jedoch noch mit einem 14 K Modem unterwegs ist, muss sich damit abfinden, dass Portale wie chip.de etc. dann nicht zum durchblättern sind.

    Aber wie auch immer, nur sollte man nicht mit Spatzen auf Kanonen schießen und jedes Byte fünfmal rumdrehen wenn es nicht unbedingt erforderlich ist.

  • Warum wird hier immer so massiv auf diesem einen Computer-Werbung-News-Portal rumgehackt? Mal davon ab:

    Wer mit einem 14.4er-Modem unterwegs ist, der sollte sich mal darüber Gedanken machen, ob er sich nicht lokal einen Proxy-Cache-Server installieren will, der ihm viele Dinge zwischenspeichert. Hätte den Vorteil, dass nämlich nur die Daten übertragen werden müssten, die wirklich anders sind…

  • @Kim: Danke nochmal für Deine Ideen und Ratschläge. Ich werde die Tage mal sehen, was sich damit erreichen lässt. Jetzt müssen sich erst mal meine paar kleinen Änderungen von heute Morgen auswirken und dann sehen wir weiter.

  • @all
    Egal wie wir im Internet unterwegs sind, eine schnelle Seite ist immer von Vorteil. Ich habe es bis jetzt schon dazu gebracht von > 8,6 Sekunden laut Tool
    auf die 3,7 Sekunden alles zu drücken. Der Server hat jetzt noch Einstellungen bekommen (Aufwand 1 Minute) , die den Supercache unterstützen und jetzt warte ich mal ab.
    Jetzt ist die Mainpage optimiert also geht es jetzt an die Unterseiten. Leider habe ich da schon einige Probleme mit dem W3C. Liegt daran wenn das Theme nicht von einem selber erstellt wird.
    Doch gebe ich nicht auf (noch nicht)
    @Kim
    Es sind nur Beispiele die Francis nimmt und ich sehe es in gewissem Sinne wie er. Große Firmen, die eigentlich auhc um die Leser bedacht sein sollten (und die Finanzen dafür haben)
    sollten auch mal etwas machen. Nicht nur wir normalen Blogger. Technisch habe ich es auch nicht mal eben so drauf wie du 😉 das darfst du nicht vergessen “Proxy-Cache-Server”
    Doch wie wir sehen sind schon einige Lösungen für uns dabei gewesen und wir sind auf dem richtigen Weg.

  • @Crazy Girl
    Ich bin auch froh das Kim hier ist 🙂 . Ist immer schön einen Techniker dabei zu haben, der auch offen seine Tipps weiter gibt.

  • @Thomas:

    Danke fürs Lob *grins*…

    Achja, das mit dem Proxy war zur zu 75% ernsthaft gemeint, weil sich solche Software auf den Rechner installieren hat natürlich auch Nachteile, nicht nur Vorteile… Der Rechner sammelt ja fleißig die Daten, die beim Surfen anfallen und speichert diese für sich ab… Datenschutz lässt grüßen… Im privaten Umfeld sicherlich kein Problem.

    Anderes ist, dass die Software natürlich auch den Rechner physisch belastet, weil sie ihn eben beschäftigt… und die Festplatte wird eben gefüllt…

    Aber ich weiß wirklich jetzt nicht, ob die Anzahl derer, die noch mit 14k4 unterwegs sind, wirklich noch so groß ist… “Dialin” bei Google-Analytics bedeutet nicht zwingend, dass es ein Modem ist, das kann auch auch 1&1-Kunde mit DSL-Anschluss sein *g* – habe ich selbst schon ausgetestet.

    Ansonsten gebe ich mein relativ praxisnahes technisches Wissen gerne weiter, wenn ich sehe, dass es auf fruchtbaren Boden fällt 🙂

  • @Kim
    Wir besonders ich sind da auch ein dankbares Publikum;-)
    Ich habe auch einen 1und1 Anschluss und wenn ich TV schaue habe ich mein MDA da zu schauen in den Werbepausen usw. Das ist dann auch ein Mobile Dailin (schätze wegen der Browserkennung).
    Solche Informationen die du uns gibst, sind gut verständlich und umzusetzen. Ich brauche da nicht mehr viel Nachdenken und es ist meist nur eine Sicherheitsfrage.

    ich hoffe das noch viele diese Informationen so aufnehmen und umsetzen können. Ich danke dir auch für deine Moderation, da es einfach dein Wissen ist was du hier bei mir Kommentierst.

  • @Thomas:

    *lach* Ich sag mal, die Art und Weise ist sicherlich beruflich gefärbt: Ich bin an einer Universität im IT-Bereich tätig und hab tagtäglich mit (relativ IT-ahnungslosen) Studenten zu tun. Da entwickelte sich über die Jahre automatisch eine Art zu Erklären, die “am Ziel ankommt”. Ich versuch’s halt mit so wenig technischen Details wie nötig.

    Ich muss aber auch sagen: Ich fühl mich hier in deinem Blog ja schon als Leser sehr lange wohl… gehöre zu der Art Leser, die erst Monate, bei manchen sogar JAHRE mit liest, bevor ein Kommentar losgeschossen wird 🙂 Irgendwie ist das auch wohl noch “von früher” über – Usenet lässt grüßen.

  • @Kim
    Schön das du dich hier wohlfühlst, das Tut gut und du hast hier ja schon reichlich Kommentare losgeschossen.
    Ok deine Arbeit ist dir dann natürlich eine gute Unterstützung. Es ist aber nicht nur bei Studenten so, wie oft habe ich schon sehr gut bezahlte Manager gehabt, die nichts verstanden haben.
    Es muss ja auch nicht sein, dafür sind dann ja auch die Fachmänner da. Es hat hier den Namen Kim.
    Usenet kenn ich so gar nicht. Mein erster C64 hatte noch so ein Ding zum Telefonhöhrer drauf legen. US Robotivs und Elsa sind mir noch ein Begriff 🙂 Solange bin ich auch schon dabei 386er SX hihi

  • Meine Seiten sind überwiegend sehr schlank gehalten. Nun hoffe ich natürlich stark von der neuen Regelung zu profitieren.

  • @Paul
    Ich glaube schon, das wenn deine Seiten schlank gehalten sind, das es sich auswirkt. Alleine für die Besucher ist es von Vorteil.
    Welcher Besucher möchte gerne auf die Inhalte warten? Er wird dann wie wir auch schnell die Seite verlassen und eine Neue suchen.
    Ich drück dir die Daumen, das es für dich positiv läuft.

  • Ich musste schon etwas schmunzeln als ich hier die Diskussion las.

    Geringe Ladezeit, sprich hohe Geschwindigkeit einer Website gehört für mich zu deren wichtigen Qualitätskriterien (siehe auch meinen Artikel “Was macht eine gute Webpräsenz aus?“.

    Wer wartet schon gerne? 😉

    Dass Google künftig schnelle Webseiten belohnt ist da nur konsequent.

    Und nun zum neidisch machen:
    Meine Webmaster Tools zeigen mir mit Stand 14.12.2009 an, dass meine Seite 1,4 Sekunden zum Laden braucht und dies schneller ist als 81 % der Websites.
    Damit noch nicht Nummer 1, aber ich arbeite daran. 😉

    PS: Auf meiner Website gibt es auch ein paar Optimierungstipps in Sachen Geschwindigkeit.

  • @Dieter
    Hallo Dieter,
    ja schmunzeln ist auf meinem Blog erlaubt. Doch durch die Möglichkeiten die WordPress jedem User zu Verfügung stellt (Plugins etc.)
    ist es immer notwendig zu optmieren. Geschwindigkeit und optische Gestalltung passt nicht immer zusammen, gerade bei den vielen Mitbewerbern
    muss man sich immer wieder neue Dinge ausdenken 🙂
    Ich danke dir für deine Tipps in Sachen Geschwindigkeit.

  • Pingback: Blogger World

  • Pingback: Blogger World

  • Die Webmaster-Tools machen bei mir den Vorschlag gzip zu aktivieren (obwohl es aktiviert ist) und weisen darauf hin, dass der DNS-Lookup durch Google Analytics zu lange dauert. Also will Google, dass ich jetzt Analytics rausschmeiße? O.k., ich probier’s jetzt mit Piwik…

  • @Dirk
    Dein Blog hat es sicher nicht eingebunden das Gzip. Schau dir mal die Artikel an wie man es aktiviert. Es reicht nicht nur einfach das anschalten.
    Auf deiner Hauptseite ist das ok und wird auch genutzt. Doch die Meldung sagt einfach aus das du es nicht aufrufst.

    Ich nutze kein Analytics und auch bei mir fliegt der Frienfinder raus. Google™ will Geschwindigkeit ?
    Die ist aber nur ohne sie möglich, denn ihre Ladezeiten sind sehr schlecht bei solchen Dingen.

Leave a Reply

Your email address will not be published. Required fields are marked *

© Blogger World

|

Copyright (c) 2008 by WSI-Design   
PageRank und Google sind geschützte Marken der Google Inc., Mountain View CA, USA. Das PageRank Verfahren unterliegt dem US Patent 6,285,999.

Nach oben