Vor ein paar Jahren wurde ich eingeladen, auf der SMX Advanced Konferenz in Seattle zum Thema SEO und Competitive Intelligence zu sprechen. Es ist ein Bereich der SEO, über den ich leidenschaftlich bin, nicht nur, weil es eines der schwierigsten Dinge in der SEO ist, zu skalieren und richtig zu machen, sondern auch, weil es eine der Grundlagen für ein gutes SEO-Programm ist.
Bevor ich auf einen der fortgeschrittenen Ansätze zur SEO-Analyse eingehe, die ich auf der Konferenz vorgestellt habe, ist es wichtig, die Entstehung des Ansatzes zu verstehen.
Bevor ich die Algorithmen für das maschinelle Lernen hinter unserer Enterprise SEO-Plattform entwickelt habe, habe ich einige Jahre damit verbracht, ein Enterprise SEO Beratungsunternehmen und eine Agentur aufzubauen und zu leiten. Wir waren ein kleines Team (damals weniger als 15 Personen), aber wir wuchsen schnell.
Eine der größten Herausforderungen bestand darin, die Aufgabe, die Situation eines Kunden so schnell und konsistent wie möglich gründlich zu recherchieren, zu bewältigen – unabhängig davon, welches Teammitglied daran arbeitet. Vom Kennenlernen der Geschäftsfelder des Kunden und der in seiner Branche verwendeten Terminologie bis hin zum Verständnis der wichtigsten Branchenteilnehmer/Konkurrenten/Einflussfaktoren im Raum bildete die Forschung die Grundlage für alle unsere Planungen und Taktiken für den Kunden.
Beim Betrieb einer Agentur (intern oder extern) müssen Sie Prozesse herausfinden, die wiederholbar und skalierbar sind. Dies ist das Markenzeichen von Teams, die hervorragende Ergebnisse liefern, im Vergleich zu Teams, die trotz enormer Anstrengungen scheitern. Da die Forschung das Fundament eines jeden guten SEO-Teams bildet, war es für unser Wachstum und unseren Erfolg unerlässlich, gut darin zu sein, es richtig zu machen.
Forschung (und Analyse) ist eine komplexe und zeitaufwändige Aufgabe, sei es in der Keyword-Recherche, der Influencerforschung oder auch der Wettbewerbsforschung. Das Problem bei jeder Art von Forschung ist, dass die Qualität der Forschung „hängt“. Es kommt darauf an:
- Die Qualität der verwendeten Datenquellen
- Der Forscher (oder das „menschliche Element“)
Die Tiefe und Breite der Abdeckung durch die Datenquellen (oder deren Fehlen) hat einen erheblichen Einfluss auf die Qualität der Forschung. Zu viele Datenquellen können zu unnötigem Lärm führen (wie jeder, der das Keyword-Planer-Tool verwendet hat, bestätigen kann), während zu wenig Datentiefe bedeutet, dass wichtige Informationen im Betrachtungssatz verpasst werden können.
Was das „menschliche Element“ betrifft, so hängt die Qualität der Forschung stark von der Erfahrung, der Ausbildung, der Wissensbasis, dem Wortschatz, dem Verständnis der Branche, dem Grad der Beteiligung, der Einstellung und einer Vielzahl anderer harter und weicher Faktoren ab.
Während es heutzutage zwar viele gute Datenquellen für die Keyword-Recherche, die Influencer-Recherche usw. gibt, gibt es immer noch nicht viele gute Systeme oder Methoden, um die Auswirkungen des „menschlichen Elements“ in der Forschung zu reduzieren.
Hier haben wir eine Methodik entwickelt, die wir „Weisheit der Menge“ nannten. Der Name war kein Zufall – die Theorie, die wir angewandt haben, wurde von jahrzehntelangen Methoden an den Aktienmärkten und von einem 2005 von James Surowiecki, The Wisdom of Crowds, veröffentlichten Buch beeinflusst: Warum die Vielen klüger sind als die Wenigen und wie kollektive Weisheit Geschäft, Wirtschaft, Gesellschaften und Nationen prägt.
Wenn Sie von Konsensusschätzungen an den Aktienmärkten oder Delphi-Prognosemethoden gehört haben, sind Sie bereits mit dem Grundkonzept vertraut. Wenn Sie noch nichts von diesen Methoden gehört haben, machen Sie sich keine Sorgen – wir werden es in einer Sekunde erledigen.
Wikipedia definiert „Weisheit der Menge“ als:
Den Prozess der Berücksichtigung der kollektiven Meinung einer Gruppe von Individuen und nicht eines einzelnen Experten zur Beantwortung einer Frage. Die aggregierten Antworten einer großen Gruppe auf Fragen der Mengenschätzung, des allgemeinen Weltwissens und des räumlichen Denkens wurden im Allgemeinen als genauso gut und oft besser als die Antwort einer der Personen innerhalb der Gruppe angesehen. Eine intuitive und oft zitierte Erklärung für dieses Phänomen ist, dass mit jedem einzelnen Urteil ein eigenartiges Geräusch verbunden ist, und wenn man den Durchschnitt über eine große Anzahl von Antworten zieht, wird man die Wirkung dieses Lärms aufheben können.
Im Wesentlichen, wenn die Weisheit der Menschenmassen auf SEO angewendet wird, nutzt es Daten von mehreren Wettbewerbern, um die wichtigsten Datenpunkte zu ermitteln. Es ermöglicht Ihnen, sich so zu konzentrieren, dass Rauschen, das aufgrund von Daten eines bestimmten Mitbewerbers oder des persönlichen Hintergrunds des Forschers entsteht, eliminiert wird.
Dies lässt sich am besten an einem Beispiel verdeutlichen. Nehmen wir die Instanz der Keyword-Recherche. Typischerweise würde die Keyword-Recherche die folgenden Aufgaben beinhalten:
- Identifizieren Sie einige grundlegende Schlüsselwörter, die sich auf die Branche und die angebotenen Produkte/Dienstleistungen des Kunden beziehen.
- Navigieren Sie zum Google Keyword-Planer.
- Geben Sie das Schlüsselwort für den Kunden ein.
- Laden Sie die Liste der zurückgegebenen Keywords herunter.
- Identifizieren Sie alle etwas längeren, spezifischeren Versionen des Schlüsselwortes aus der Liste.
- Wiederholen Sie den Vorgang.
- Setzen Sie alle Keywords in Excel ein und folgen Sie Ihrem eigenen Prozess zur Bereinigung der Liste (Entfernen irrelevanter Keywords, Herausfiltern nach Suchvolumen, etc.).
Dieser Prozess ist eine unglaublich große Zeitverschwendung – man könnte Dutzende von Stunden damit verbringen und trotzdem die effektivsten Keywords völlig verpassen. Warum? Erstens gibt es eine enorme Menge an „Rauschen“ oder irrelevanten Daten, die von der Datenquelle zurückgegeben werden. Zweitens gibt es keine Validierung der Relevanz des/der Keywords für die Branche des Kunden – das Wissen und die Erfahrung des Forschers in der Branche spielen eine große Rolle bei dem, was gehalten und was in der Analyse herausgeworfen wird.
Betrachten Sie diesen alternativen Ansatz, der die Weisheit der Menge nutzt:
- Identifizieren Sie die Seite auf Ihrer (oder der Ihres Kunden) Website, die Sie nach Keywords durchsuchen möchten.
- Identifizieren Sie mindestens 3 (je mehr, desto besser) Seiten von verschiedenen Konkurrenzsites, die nach dem Kernnamen des Produkts oder der Dienstleistung geordnet sind, für die die Seite relevant ist. Wenn Sie beispielsweise eine Seite über „New York Hotels“ haben, suchen Sie nach den Top-Ranking-Seiten verschiedener Wettbewerber-Websites für dieses Keyword.
- Wählen Sie Ihr bevorzugtes Keyword Intelligence Tool – SEMrush, KeywordSpy, SpyFu oder einen gezielteren, branchenspezifischen Index wie das, was wir bei seoClarity anbieten (schamloser Plug!). Denken Sie daran, dass eine Datenquelle, die eine große Bandbreite und Tiefe bietet, für eine gute Analyse entscheidend ist.
- Laden Sie die Keywords herunter, für die jede der Wettbewerberseiten eine Rangfolge hat.
- Kompilieren Sie die heruntergeladenen Daten für alle Mitbewerber in einer einzigen Excel-Arbeitsmappe und erstellen Sie eine Pivot-Tabelle, um schnell zu sehen, wie viele Mitbewerber für dasselbe Keyword Rang haben.
- Wählen Sie die Keywords, bei denen zwei oder mehr Wettbewerber für ein Keyword stehen, Ihre Seite aber nicht.
Das ist es! Indem Sie sicherstellen, dass Sie sich die Keywords ansehen, für die zwei oder mehr Wettbewerber ein Ranking erstellen und Sie nicht, eliminieren Sie eine enorme Menge des Lärms, der mit der traditionellen Keyword-Recherche verbunden ist.
Hier ist ein Venn-Diagramm, das hilft, den Prozess zu visualisieren. Die Keywords, die Teil der überlappenden Abschnitte sind, sind diejenigen, die zwischen den beiden Wettbewerberseiten üblich sind und starke Kandidaten für Ihr eigenes Keyword sind, auf das Sie sich konzentrieren können.
Mit dieser Forschungsmethode können Sie sicher sein, dass:
- Sie wählen Keywords aus, die Google für Seiten relevant findet, die direkt mit Ihnen konkurrieren.
- Die hervorgehobenen Keywords haben eine sehr hohe Wahrscheinlichkeit, auch für Ihre Seite relevant zu sein (solange Ihre Seite und Ihre Wettbewerberseiten die gleiche Zielgruppe mit relativ ähnlichen Diensten ansprechen).
- Sie haben unnötigen Lärm durch firmenspezifische (Marken- oder Produktnamen) Keywords eliminiert.
Eines der anderen Dinge, die ich an dieser Methodik liebe, ist, dass sie für fast jede Art von Forschung gleichermaßen gut eingesetzt werden kann. Sie sind auf der Suche nach Influencern in der Branche? Wiederholen Sie den gleichen Vorgang, ändern Sie aber einfach die Datenquelle auf MajesticSEO oder eine andere Quelle. Auf der Suche nach sozialem Engagement? Wiederholen Sie dies mit Twitter-Follower-Informationen. Auf der Suche nach Inhaltsideen? Nutzen Sie, welche Themen mehrere Websites in Ihrer Branche veröffentlichen. Die Liste ist endlos!
Einige Warnhinweise
- Diese Methodik ist nicht für alle Situationen geeignet – wenn Sie ein sehr einzigartiges Produkt haben und Wettbewerber, die nicht sehr klar definiert sind (oder Wettbewerber, die keine gut ausgerichteten Seiten haben), wird das nicht funktionieren
- Wenn Sie keine gute Wettbewerbslandschaft haben (d.h. Sie sind der dominante Spieler und alle anderen sind unterdurchschnittlich), wird dies keine Qualitätsergebnisse liefern
- Wenn Ihre Datenquelle nicht zuverlässig ist, werden die Erkenntnisse, die Sie gewinnen, begrenzt sein
- Diese Methodik wird nicht unbedingt Schlüsselwörter finden, für die niemand an eine Optimierung gedacht hat, aber sie wird Ihnen Zeit verschaffen und Sie mit niedrig hängenden Früchten beginnen lassen, während Sie die schwer zu findenden Edelsteine erforschen
- Nur diese Methodik ist ein Rezept für M.A.D – Mutually Assured Destruction