Google Adwords – Negatives richtig einsetzen

Man kann bei Google Adwords bekannterweise Begriffe ausschließen, bei denen die eigene Werbung auf jeden Fall nicht angezeigt werden soll. Dies ist ein prima Mittel, um Kosten zu senken und gleichzeitig ein schöner Spielraum für den verwaltungsseitigen Aufbau von Kampagnen. Bekanntermassen gibt es bei Google Keyword-Optionen vom Broad Match – alles, wo der Begriff bei einer Suchanfrage irgendwie drin vorkommt, wird angezeigt, bis zum Exact Match – die Sucheingabe muss haargenau dem eingegebenen Keyword entsprechen, damit eine Anzeige erscheint.

Negative Keywords im Google Adwords EditorGenau das Gleiche gibts bei den Negatives. Streuschuss mit komplettem Ausschluss von allem, wo das Wort irgendwie drin vorkommt bis zum haargenau definierten Ausschluss in genau dieser Schreibweise.

Entspechend breit ist nun der Spielraum beim Setup der Kampagnen. Einerseits kann man mit einem positiven Broad Match alles einsammeln, was irgendwie eine begriffliche Ähnlichkeit hat, andererseits in verschiedensten Stufen alles ausfiltern, was nicht hineinpasst.

Beispiel: Autohändler, Broad Match Keyword meinetwegen Gebrauchtwagen. Das sammelt alle Suchanfragen ein, die irgend etwas mit Gebrauchtwagen zu tun haben. Hat man aber gerade keinen Hummer im Angebot, sollte man Hummer auf die Negativliste setzen. Damit fallen alle Anfragen weg, wo jemand im Web nach einem Gebrauchtwagen Hummer sucht oder ähnliche Formulierungen einsetzt. Ergo bleiben die Kosten für die Gesamtkampagne niedriger.

Man kann sich also entweder die Arbeit machen, und die Positivliste ganz genau und haarklein formulieren, etwa mit zig Sprach- und Ausdrucksvarianten via Exact Match (Dann wird logisch auch dort keine Werbung eingeblendet, wo man kein entsprechendes Angebot hat). Oder man sammelt per Broad Match alle Anfragen ein und schließt allgemein oder genau das aus, was man nicht im Portfolio hat. Beide Spielarten ermöglichen eine sehr feine Gestaltung der Kampagnen. In unseren Seminaren zeigen wir, wie man den richtigen Traffic auf seine Webseite bekommt und unerwünschten Traffic – Kosten – fernhält.

Nicht jeder Link ist brauchbar

Schön, wenn viele Links auf eine Webseite zeigen. Schlecht, wenn es die falschen sind. Mit dem Pinguin-Update hat Google die Kriterien für Links deutlich verschärft. Anstelle von zig Links aus nichtssagenden Verzeichnissen oder irgendwelchen ausländischen Seiten, ist eine gesunde Mischung wichtiger denn je. Was heißt das?

Es gibt im Web Seiten mit einem sehr hohen Vertrauensfaktor. So zum Beispiel das Open Directory Project, Universitäten, Städte, Wirtschaftsverbände, etc., bis hin zu Wikipedia. Da sollte man schon ein paar Links draus beziehen, damit man für vertrauenswürdig gehalten wird. Jetzt denken sich einige: Moment mal, ich kann zwar bei Wikipedia einen Link reinsetzen, der ist doch aber mit dem no-follow Attribut gar nicht wirksam in Suchmaschinen? Oh, doch, die no-follow Links werden trotzdem gewertet und wenn sie von einer hoch vertrauenswürdigen Seite kommen, haben sie erhebliche Bedeutung.

Beispiel für Bad Links in der Suchmaschinenoptimierung für Online Marketing

Das braucht man auf keinen Fall: Absolut nichtssagende Links, welche auf ein Blog verweisen. Dieser Linkmüll ist schlecht für Suchmaschinenoptimierung.

1:1 Linktausch, gekaufte Links (auch Eintragungsgebühren zählen da mit!!!), viele Links aus einem engen IP-Adressraum, nur Blogkommentare und so weiter, erweisen sich als Boomerang. Google bekommt sehr schnell spitz, dass so ein Linkprofil nicht natürlich sein kann und straft dann die Seiten heftig ab. Wichtig und richtig ist, für ein „natürliches“ Linkprofil zu sorgen, wie es eben im Web im Laufe der Zeit entstanden sein kann. Links ein Beispiel für absolute Schrottlinks, welche auf ein Blog weisend gesetzt wurden.

Dazu zählt auch, notfalls dubiose Links entwerten zu lassen – indem man die linkgebende Seite herausnimmt, siehe Linkabbau. Das ist aber ein zweischneidiges Schwert, denn so macht man Google darauf aufmerksam, dass man an den eigenen Links herumbastelt. Dennoch ist dies zurzeit das einzige Mittel, einen zugespammten Linkaufbau wieder freizuräumen. Und genau dieses Zuspammen betreiben gerade einige Agenturen………

Die größten Onlineshops

Wenig überraschend, ist Amazon wieder der Onlinehändler mit dem besten Umsatz. Schon 2011 folgte mit weitem Abstand Otto, auf Platz 3 war damals die mittlerweile insolvente und deaktivierte Neckermann. Spezialversender bewegen sich 2012 in den Top Ten, welche mit ihrem Sortiment durchaus beachtliche Umsatzgrößen erreichen. So ist Notebooksbilliger.de mit seinem reinen Elektroniksortiment ein solider Kandidat für Spitzenplätze. Offensichtlich ist die scharfe Fokussierung auf einen Markt ein gutes Modell, auch für die entsprechenden Marketing-Maßnahmen. Das macht Sinn, denn mit hoher Spezialisierung sind Werbekosten und Marketingmaßnahmen viel besser kontrollierbar und man kann einfacher Marktanteile erobern, als dies einem Generalisten möglich ist. Zalando konnte es 2012 in die Top Ten schaffen, wenn auch mit einem riesigen Werbeaufwand auch außerhalb des Internet (TV).

Social Media – wenig Kaufbeeinflussung

Nach einer Studie von Forrester Research beeinflusst Social Media weniger als 1 Prozent der direkten, schnellen Kaufentscheidungen, siehe auch diesen Artikel. In der Praxis ist dieser Wert nachvollziehbar. Für direkten Umsatz bringt Social Media vergleichsweise wenig, da das Kaufverhalten von etwa Facebook-Benutzern in der Summe deutlich schlechter ist und vom Volumen her überhaupt nicht mit „klassischen“ Internetshops mithalten kann. Entsprechend vorsichtig agieren viele Firmen für den eventuellen Aufbau eigener Facebook-Shops. Mit Recht, denn nach wie vor sind die absoluten Umsatzbringer Webshops, Verkaufsportale (Amazon, ebay…) und Preisvergleiche. Trotzdem bietet Social Media hoch interessante Ansätze für sehr breit gestreute PR-Maßnahmen.

Es geht sich also weniger um einen aggressiven, sofortigen Verkauf, sondern um einen langfristigen Imageaufbau. Erst, wenn dies geleistet ist, kann man über eingestreute Angebote reden. Der mögliche Kunde braucht immer erst das Vertrauen „da kann ich problemlos kaufen, die haben einen guten Service“.

Google wertet nochmals verstärkt Inhalte

Schon mit einem Update im März 2012, genannt Panda, hat Google die Kriterien für natürliche Suchergebnisse deutlich Richtung hochwertiger Inhalte verschoben. Ein wichtiger Schritt war hiebei, gute Webseiten von Menschen beurteilen zu lassen. Die beurteilten Webseiten werden als Referenzen genutzt, von denen der Google-Algorithmus lernen kann, wie gute Seiten mit hochwertigen Inhalten aussehen. Einfach ausgedrückt vergleicht Google die Ratings von Menschen mit dem, was es im Netz vorfindet. Je besser also eine Webseite beim Leser „ankommt“, desto höher wird bei diesem Kriterium die Position in der Ausgabe statt finden. Was jetzt technisch klingt, ist an sich logisch. Neben der reinen Konformität entsprechend der Google Webmaster Guidelines sichert man sich gute und gut zu bedienende Webseiten als Suchresultat zur Steigerung der Kundenzufriedenheit seitens Google. Rein grafiklastige Seiten mit wenig Inhalt oder Seiten mit schwieriger Bedienung haben Abstufungen erfahren, während leicht zu bedienende, inhaltsstarke Seiten gewonnen haben.