Marketing & SEO News im fob marketing Blog

» SEO-Chat auf politik-digital.de

Wie schafft man es als Blogbetreiber, einen guten Platz im Suchmaschinen-Ranking zu ergattern?

Für Antworten steht morgen (Dienstag, 16.10., 16:00-17:00 Uhr) Gerald Steffens vom SOS SEO Blog zur Verfügung.

Wer spezielle Fragen an den SEO-Blogger hat, kann diese schon heute bei politik-digital.de einreichen.

Ich bin gespannt, wie weit man im SEO-Chat in einer Stunde kommt…

» SEO Tipp: PageRank mit noindex umverteilen

Suchmaschinenoptimierer (SEOs) verwenden zum Zwecke des „Google-Finetunings“ noindex, nofollow und die robots.txt -Datei.

Noindex verwendet man auf Internetseiten, die man selbst für „irrelevant“ hält oder aus anderen Gründen von der Einblendung in Suchmaschinenergebnislisten ausschließen möchte. Einzelseiten mit noindex und andere Optimierungshilfen, wie die robots.txt-Datei sind natürlich gewissenhaft aufeinander abzustimmen.

Kommt die Meta-Angabe „noindex“ zum Einsatz, ist es empfohlen und gängige SEO-Praxis, dem „noindex“ einen zusätzlichen Wert „follow“ hinzuzufügen, um den Robottern mitzuteilen, dass zwar die aktuelle Seite nicht indiziert werden soll, die verknüpften Seiten jedoch schon, sofern sie nicht selbst mit noindex gekennzeichnet oder auf anderem Weg von der Indizierung ausgeschlossen wurden. Mit „nofollow“ würden die Google-Bots hingegen (in Sachen PageRank-Vererbung) gestoppt werden.

Noindex-Seiten zeigen normalerweise keinen PageRank an. Wie Matt Cutts in einem aktuellen Interview zu entlocken war, können sie jedoch offenbar trotzdem PageRank zwischenspeichern und weitervererben.

Man sollte sich daher sehr gut überlegen, wie man seine Noindex-Seiten gestaltet! Ein Beispiel findet sich in meiner kürzlich veröffentlichten Error-404-Empfehlung, wobei ich hier nicht mit Gewissheit sagen kann, ob und welchen Einfluss der Error-404-Code auf die PageRank-Umverteilung hat, ob das Umverteilen von PageRank auch auf Error-Seiten funktioniert. Ich persönlich würde auf den Zusatz <meta name="robots" content="noindex, follow" /> jedoch auch und vor allem auf Error-Seiten nicht verzichten wollen. 😉

(Den Hinweis auf das Matt-Cutts-Interview fand ich bei „Bayrischer SeoBlogger„. Vielen Dank.)

Nachtrag: (Theorie meets Praxis) Nach Überprüfung verschiedener, korrekt funktionierender Error-404-Seiten, bin ich gerade zu dem Ergebnis gekommen, dass 404-Error-Codes die Indizierung einer speziellen 404-Fehlerseite – mit „index, follow“ oder auch mit „noindex, follow“ – offenbar vollständig ausschließen. Aber was nicht ist, kann ja theoretisch noch werden… 😉

» Affiliate-Werbung

Manchmal habe ich das Gefühl, dass gewisse „Affiliate-Vermarktungspartner“ ihr Vokabelheft verloren haben.
So auch heute…

In Ausnahmefällen habe ich Affiliate-Angebote bisher in meinem Shopping-Portal „geduldet“, in der Regel aber nicht aktiv beworben. Für einige wird`s trotzdem teuer, für andere weniger… Oft liegt es an der ungemein schlechten Shop-Technik, die es meinen Besuchern unmöglich macht, dort einzukaufen, wo ich sie hin verwiesen habe. Diese „Affiliate-Partner“ fliegen nun als erstes raus, weil sie meine Besucher verärgern und ich als Beschwerdestelle nicht bezahlt werde. Wenn sie einen ordentlichen Online-Shop haben möchten, können wir natürlich darüber reden… (Einer der Partner hat übrigens Glück. Der Online-Shop ist zwar immer noch suchmaschinenuntauglich – aber für wahrscheinlich wieder mal viel zu hohen Geld-Einsatz immerhin rechtzeitig navigierbar geworden. Dieser Affiliate-Partner darf deshalb bleiben…) [weiterlesen…}

» Online-Werbung 2007

Die Online-Werbung wächst weiter in einem atemberaubenden Tempo…„, heißt es in einem aktuellen Lagebericht des BVDW.

Rekord: Die Werbeumsätze 2007 steigen auf ein Gesamtvolumen von mindestens 2,71 Millarden Euro, so die Prognose. Mit einem Anteil von 1,31 Millarden Euro zählen Banner und grafische Werbeelemente zu den begehrtesten Formen der Online-Werbung. 1,19 Millarden Euro fallen voraussichtlich auf Suchwort-Werbung ab, Affiliate-Netzwerke kommen auf 210 Millionen Euro.

Perfekte Aussichten für Online-Marketing-Agenturen und sonstige Vermarkter von Online-Werbung, läge da nicht ein Schatten über der Online-Vermarktung, welcher Wettbewerbsverzerrungen zu Ungunsten privatwirtschaftlich geführter Unternehmen vermuten lässt…

(Via Online Marketing News Blog von Paul Buchhorn, der seine Online-Marketing-News-Tastatur pünktlich zum 01.10.2007 wiedergefunden zu haben scheint. 😉 )

Persönlich bin ich nun sehr gespannt, wie sich die Affiliate-Werbung tatsächlich weiter entwickeln wird. Wenn Suchmaschinen etwas gar nicht leiden mögen, ist es Werbung für Affiliate-Links. Und leider scheinen sich die Affiliate-Vermarkter in dieser Beziehung nur sehr schleppend weiter zu entwickeln. Ein entsprechender Rückgang der Affiliate-Werbung würde mich daher nicht wundern.

» Suchmaschinenoprimierung

Mein Tippfehler des Tages: Suchmaschinenoprimierung

Klingt ein bisschen, wie Suchmaschinendeprimierung. Es gibt allerdings schon einen, der unter (…) Suchmaschinenoprimierung gefunden wird, in Kürze zwei. 😉

Gemeint war mit Suchmaschinenoprimierung natürlich die Suchmaschinenoptimierung. Deshalb fragte Google auch gleich nach: Meinten Sie: … suchmaschinenoptimierung?“ (Google scheint das Wort Suchmaschinenoptimierung tatsächlich klein zu schreiben. Die Punkte stehen für ein Wort, das ich zusätzlich zur Suchmaschinenoptimierung abgefragt habe.) Nun ja, natürlich meinte ich die Suchmaschinenoptimierung.

Was das soll? Sorry. Ist mal wieder Casual Friday. Da kann man Suchmaschinenoptimierung, Suchmaschinenoprimierung und Suchmaschinendeprimierung schon einmal durcheinander würfeln, finde ich…

Schönes Wochenende allerseits 😉

» Google News und Marketing News mit Google finden

Wozu braucht man eigentlich noch die Google-News, wenn tagesaktuelle Meldungen inzwischen auch bei Google selbst erscheinen?

Wer ein für Google geeignetes Web-System nutzt, hat gute Chancen, mit neuen Artikeln noch am Tag der Freischaltung auf google.de gefunden zu werden.

Aber: Viele Webmaster ärgern sich darüber, dass nach Artikel-Veröffentlichung bei Google erst einmal nur ein Startseitenlink angezeigt wird. Ein Hinweis für Google-Nutzer, dass auf der Website Y ein neuer Artikel zum Thema X vorzuliegen scheint, der jedoch nicht direkt ausgegeben wird.

Also habe ich mir einmal angesehen, woran es liegen könnte, dass Google bei einigen Leuten die neue URL (den Link zum Artikel) und bei anderen nur einen Startseitenlink angibt.

Meine Analyse trägt den Titel: „Robert gegen den Rest der Welt.“
(Korrekter wäre eigentlich: „Robert MIT dem Rest der Welt“ – aber egal…)

Grund: Robert Basic lässt seinen WordPress-Blog glühen, dass manche Medienportale kaum noch hinterher zu kommen scheinen. Er nimmt es also locker mit 10-20 professionellen „Schreibern“ auf, unser Robert, natürlich mit völlig anderer Zielsetzung, anderer Zielgruppe und anderem Qualitätsanspruch – aber durchaus produktiv, mit blogosphärischer Gelassenheit und relativ großer Fan- und Lesergemeinde. Soweit mir bekannt ist, sind Roberts Beiträge in den „offiziellen Google News“ nicht vertreten.

Das Ergebnis ist logisch: Nicht die Google-News, sondern die Blogger-Frequenz scheint entscheidend dafür zu sein, dass Roberts Beiträge nicht nur tagesaktuell, sondern auch zeitnah mit korrekter URL versehen werden. System-Vorteil -> Content-Vorteil -> Spiderfrequenz-Vorteil -> schnellere Listings !

Die Robotter scheinen einfach zu wissen, dass sich auf Roberts Blog am laufenden Band etwas ändert. Also fahren sie den Spider-Puls hoch. Robert kommt natürlich zusätzlich zu Gute, dass er in der Blogosphäre extrem gut vernetzt ist. Ausschlaggebend für seine Listings scheint mir jedoch auf jeden Fall die Posting-Frequenz zu sein. Ich glaube sogar, es wäre schädlich für Robert, Artikel zu sammeln und zu bestimmten Zeitpunkten gebündelt zu veröffentlichen. Die Kontinuität ist ausschlaggebend. Die Frequenz muss für Robotter ersichtlich und lernbar sein. (2 Änderungen pro Tag = 2 Bot-Besuche pro Tag?)

Wenn sich also jemand wundert, warum andere schneller gelistet werden als man selbst, sollte man es einfach mal mit kürzeren Intervallen bei der Content-Produktion versuchen – vorausgesetzt natürlich, die Produktionsumgebung ist bereits ideal (Google-Sitemap, RSS-Ping-Mechanismen, Onpage-Struktur, On- und Offpage-Optimierung, Web-Texter-Schulung, …)

Da längst nicht jeder dazu in der Lage ist, zu produzieren, wie der Vorzeige-Blogger Robert, denke ich gerade über ein geeignetes „Power-Posting-Portal für alle“ nach. Nach dem Motto: „Profitieren Sie von der Frequenz der anderen…“ Dort schreibe ich dann natürlich ebenfalls kräftig mit. 😉

Aber zurück zur Überschrift:

Die echten Google-News mit Google finden

Wer keine Lust mehr hat, die tagesaktuellen News in den Google News zu suchen und die Suchergebnisse weder auf „Blog-Suche“ noch auf „Medien-Suchergebnisse“ beschränken möchte, kann sich der normalen Google-Suche wie folgt bedienen, um sich ausschließlich tagesaktuelle Google-Ergebnisse anzeigen zu lassen:

Persönlich nervt mich zum Beispiel der ganze Marketing-News-Quatsch bei Google. Diesen Schränke ich daher wie folgt auf „echte Marketing-News“ ein:

Suche nach Marketing einschränken auf die letzten 24 Stunden:
https://www.google.com/search?q=marketing&as_qdr=d1

Suche nach Marketing einschränken auf die letzten 48 Stunden:
https://www.google.com/search?q=marketing&as_qdr=d2

Suche nach Online Marketing einschränken auf die letzten 10 Tage:
https://www.google.com/search?q=online+marketing&as_qdr=d10

Was? Die Google-News-Suche ist immer noch nicht exakt genug?
Hier gibt`s das Spielzeug für die Mecker- und Moser-Leutchen unter uns, natürlich auch auf englisch! 😉

Mein persönliches Fazit: Die alten Google News werden offenbar nicht mehr (lange) benötigt.

» Nofollow-Plugin WordPress 2.3 kompatibel

Hey supi!

Nächste Woche wird WordPress wohl offiziell mit der neuen Blog-Version 2.3 an den Start gehen. Höchste Zeit, so dachte ich, Nofollow Case by Case einmal auf Kompatibilität zu überprüfen – nicht nur deshalb, weil Lorelle in Ihrer 2.3-Vorstellung dazu aufrief.

Scheinbar hat die Kompatibilitätsprüfung schon jemand für mich erledigt. Wer hat mein Plugin auf die WordPress-2.3-Kompatibilitätsliste gesetzt? Vielen Dank! 😉

» Vorbereitungen für WordPress 2.3?

Die gute Nachricht:

Für aktuell im Einsatz befindliche WordPress-Themes scheint es keinen Änderungsbedarf zu geben. Falls jemand ein uraltes Theme verwendet, das mit WordPress 2.2.x noch läuft, braucht er seine Templates lediglich nach der Funktion „permalink_link()“ zu durchsuchen, um diese gegebenenfalls durch die aktuelle Abfrage „the_permalink()“ zu ersetzen. Daneben wäre „permalink_single_rss()“ noch gegen „the_permalink_rss()“ auszutauschen. Das war`s. (Nachzulesen bei Technosailor, unter „10 Things you need to know about WordPress 2.3.)

Die schlechte Nachricht – und der Grund, weshalb ich das 2.3-Update nicht empfehle:

Das Simple Tagging Plugin wird in der WordPress-Version 2.3 offenbar definitiv nicht unterstützt. Als Alternative zur „Very Simple WordPress Tagging Function“ werden zwei neue Tagging-Plugins vorgestellt, auf die ich persönlich nicht ausweichen möchte.

» Dezente Google-Schwankungen

Zugegeben, ich bin ein bisschen von Google verwöhnt und habe fast gar nichts bemerkt. Außer, dass bei Google die Wettbewerberzahlen rapide anzusteigen und aktuell begehrte Keywords immer höher zu rutschen scheinen. 😉

Außerdem habe ich festgestellt, dass das Google-Cache-Datum momentan massiven Schwankungen unterworfen zu sein scheint, ebenso wie Google-Spider-Frequenzen, während sich Suchmaschinenoptimierungsmaßnahmen gegenwärtig unwahrscheinlich schnell auswirken.

Unterm Strich sieht es wohl so aus, als hätte Google mal wieder sämtliche Filter über Bord geworfen, um nach und nach eine Neuordnung zu schaffen. Kein Wunder also, dass das PageRank-Update auf unbestimmte Zeit verschoben wurde.

Wenn die aus der Physik bekannte „Schmetterlingstheorie“ nun auch der Suchmaschinenoptimierung erhalten bleiben sollte, so dass ein kleiner Optimierungseingriff in Windeseile neue Rankings schafft, so liegt die Zukunft eindeutig im „produzierenden Gewerbe“ und Websites ohne tagesaktuelle Änderungen stehen vor dem Aus.

Ein Update der Google-Toolbar wird sinnloser denn je, da es sekündlich durchgeführt werden müsste, um auch nur annährend sinnvolle Erkenntnisse zu liefern. Man könnte die Toolbar also getrost abschaffen, wenn da nicht ein wichtiges Feature verloren ginge – das Tracking der User, welche die Toolbar verwenden. Kann man aber überhaupt so viel Rechenpower zur Verfügung stellen, dass die Google-PageRank-Anzeige wieder ehrliche Auskünfte liefert? Was sehen wir eigentlich heute? Den PageRank-Stand von Anfang April 2007? Kann der angezeigte PageRank nicht schon Mitte April in den Keller gefallen sein, zum Beispiel auf Grund einer „dezenten“ Anzahl unzensierter Blog-Spam-Kommentare?

Wie dem auch sei. Momentan wird vielerorts von Google Chaos berichtet:

Im SOS SEO Blog wird vom „Google-Infarkt“ gesprochen, die Rank-Pulse sehen sehr wild aus und die Update-Schwankungen blieben keineswegs unbemerkt.

Mal wieder dürfen wir gespannt sein, was nach dem Sushi kommt…

» Managed Server – ja oder nein?

Irgendwie langweilig hier. Ich glaube, ich schreibe mal wieder was… 😉

Seit Tagen ärgere ich mich mit einem Managed Server von 1&1 herum. Ein Managed Server ist eine feine Sache, denkt man: „Haste einen Managed Server, brauchste Dich um nix weiter zu kümmern. Für Performance, Sicherheit und Ausfallsicherheit wird bei Managed Servern bestens gesorgt…“ Denn, wie der Name schon sagt, handelt es sich bei einem Managed Server um einen Server, der gemanaged wird – ein Rundum-sorglos-Paket…

Da ich mich persönlich mit dem Management und der Absicherung eines Web-Servers eigentlich nicht all zu gut auskenne und damit möglichst auch nichts zu tun haben möchte, bestelle ich für eigene und fremde Internet-Projekte gerne Managed Server.

Seit heute frage ich mich allerdings, ob es nicht Leute gibt, bei denen man das Server-Management extern einkaufen kann, um statt der Managed Server künftig Root-Server zu betreiben – ohne Risiko und ohne Mehraufwand, versteht sich. 😉

Managed Server haben leider ihre Grenzen. Wann immer man etwas möchte, was über die Standard-Konfiguration hinaus geht, ist man mit einem Managed Server bei Massen-Webhostern scheinbar schlecht beraten. Aktuell scheint es dem Provider zum Beispiel unmöglich zu sein, mir eine Logfile-Analyse zur Auswertung der Datenbankperformance zur Verfügung zu stellen. Auch nicht gegen Bezahlung. Auf solche mySQL-Standardabfragen hat man als Auftraggeber eines Managed Servers leider keinen Zugriff. Und der Provider des Managed Servers selbst scheinbar auch nicht. Sehr unbefriedigend, denn ohne Analyse gibt`s natürlich keine Problemlösung. Und nun?

Da ich schon seit Jahren Managed Server im Einsatz habe, kenne ich die Antwort auf dezente Anfragen inzwischen zur Genüge: „Wir haben Lastspitzen festgestellt. Bitte beseitigen Sie diese, damit der Server wieder einwandfrei arbeiten kann.“

Tja, wo kommen „Lastspitzen“ her? Entweder werden sie durch starken Traffic verursacht – oder aber durch Fehler in Skripten, die man nur durch Logfileanalysen feststellen kann. In meinem aktuellen Fall erzeuge ich die Lastspitzen durch mein „Spider-Caching-System“. Anschließend läuft der Server wieder ein paar Stunden rund. Aber leider nur ein paar Stunden…

Nachdem Caching, Datenbank und System mittlerweile mehr als optimiert wurden, legt sich der Server leider immer noch in regelmäßigen Abständen schlafen, so dass es erforderlich wird, ihn durch den „Power-Spider“ wieder aufzuwecken und dadurch „Dienstbereitschaft“ zu erzwingen. 😉

Als mir die Sache zu bunt wurde, habe ich mir die Konfiguration des Managed Servers einmal angesehen:

Speichernutzung: 512 MB
Prozesslaufzeit: 3650 Sekunden
Anzahl gleichzeitig ausführbarer Prozesse: 1024

Oooops? 3.650 Sekunden??? Bin ich jetzt doof oder stimmt da was nicht?

Im Admin steht tatsächlich, 3.600 Sekunden wären der empfohlene Wert – und irgendjemand scheint noch ein paar Sekündchen dazu gepackt zu haben… Da ich davon ausgehe, dass ein Standard-PHP-Skript entweder nichts taugt oder nach spätestens 1-2 Minuten fertig sein dürfte, habe ich die Prozesslaufzeit nun einmal auf großzügige 180 Sekunden, also auf 3 Minuten (statt einer Stunde) heruntergesetzt, damit „überlaufende“ PHP-Skripte im Zweifel nicht gleich den ganzen Server abschießen können. Das war heute Mittag. Mein „15 Minute Spider“ läuft allerdings nachwievor vollständig durch.

Hmmm… Vielleicht doch besser, auf Root-Server umzusteigen?

Stöbern im Marketing und SEO Blog

Weitere Einträge im fob marketing Blog

«12...22232425262728...5455»

fob marketing Marketing Consulting Hamburg Marketing Werbung Internet PR Suchmaschinenoptimierung Kontakt Impressum Datenschutz