Das neue Super-Tool für jeden SEO – Power Query

Stephan Walcher
Stephan Walcher

Stephan Walcher ist bereits seit 2007 im Bereich Online-Marketing mit Schwerpunkt SEO aktiv. Nach seinen Stationen als Inhouse-SEO-Spezialist für namhafte Unternehmen wie Microsoft und 1&1 und als langjähriger Head of SEO Consulting bei Catbird Seat GmbH, verstärkt er seit Oktober 2015 das Produktmanagement bei OnPage.org GmbH, den innovativen Tools für bessere Webseiten.

Mehr von diesem AutorArtikel als PDF laden

Wer die Nase rümpft, wenn er hört, dass jemand mit MS Excel Daten analysiert, ist wahrscheinlich mit seiner Kenntnis über die Möglichkeiten im letzten Jahrhundert stehen geblieben. Die meisten echten SEO-Profis nutzen es im Gegenteil oft sogar recht intensiv, weil man sich sowohl ad hoc schnell einen Überblick über die Zahlenberge, die über das Web anfallen, machen als auch sehr flexibel fertige Vorlagen für die eigene Arbeit erstellen kann. Einer der essenziellen Vorteile ist aber sicherlich, dass man Daten direkt sehen und „berühren“ kann, bevor und während man sie weiterverarbeitet. Das schafft ein tiefes Verständnis darüber, was man tut und wie sich das Ergebnis letztlich zusammensetzt. Fertige Tools sind gut – aber sie verhindern oft genau dies. Man muss die berechneten Kennzahlen glauben und hat nicht selten wenig oder keine Ahnung, wie sie ermittelt wurden. Oft sind die Erkenntnisziele aber sehr individuell oder fallbezogen und eine Programmierung lohnt dafür nicht bzw. würde viel zu lange dauern. Hier kann Excel im Zusammenspiel mit Add-ins wahre Wunder auf den Bildschirm zaubern. Stefan Walcher ist jemand, der sich damit wirklich extrem gut auskennt – und er stellt Ihnen in diesem Beitrag ein solches Add-in, Power Query, anhand einer beispielhaften und gut nachvollziehbaren Schritt-für-Schritt-Fallstudie vor.

Wer den Namen Microsoft Excel hört, denkt vermutlich sofort an unzählige Unterrichtsstunden in der Schulzeit, in denen man langweilige Arbeitsblätter erstellen musste, um den Zinseszins zu errechnen. Dabei ist Microsoft Excel ein spannendes und vielseitiges Tool, das sich in den letzten Jahren gerade im Bereich Online-Marketing zu einem der wichtigsten Werkzeuge für SEOs entwickelte. Egal, ob es Traffic-Daten aus Google Analytics, Keyword-Rankings aus der Google Search Console oder Crawl-Daten aus OnPage.org sind, jede dieser Quellen liefert SEOs zahlreiche Informationen und hilft bei der Identifizierung wichtiger Hebel in der Suchmaschinenoptimierung. Das wahre Potenzial dieser Datenquellen ergibt sich aber, wenn man diese miteinander kombiniert. Verknüpft man zum Beispiel Google-Search-Console-Daten mit Crawl-Daten, kann man mit wenigen Klicks URLs mit einer schwachen CTR (Click Through Rate) in den organischen Google-Ergebnissen identifizieren.

Inzwischen bieten fast alle On- und Offline-Tools die Möglichkeit, die bereitgestellten Daten auch als CSV-Export zu erhalten und sie dann anschließend in Microsoft Excel über den =SVERWEIS() oder über die =INDEX()-Funktion zusammenzuführen. Das Zusammenführen über die =SVERWEIS()-Funktion benötigt einiges an Rechenleistung und kann gerade bei größeren Datenexporten auch mal ein paar Stunden in Anspruch nehmen. Besonders kritisch wird es, wenn der Datenexport die 1.000.000 Zeilen überschreitet, das Zeilenlimit von Microsoft Excel, denn dann werden die überflüssigen Zeilen einfach abgeschnitten und wertvolle Daten können auf diese Weise verloren gehen.

Power Query für Excel

Mit Power Query für Excel 2016 hat Microsoft ein mächtiges Werkzeug in sein Tabellenkalkulationsprogramm integriert, das Usern dabei hilft, große Datenmengen zu importieren, zusammenzuführen und zu verarbeiten, um neue und noch bessere Analysen zu machen. Leider steht Power Query derzeit nur für Windows zur Verfügung, aber für Mac-Besitzer gibt es Abhilfe in Form einer Windows-Partition. Mehr dazu unter bit.ly/wb-bootcamp.

Mit Power Query für Excel können Nutzer von Office 2016 verschiedene Datenquellen verbinden und diese Daten dann nach eigenem Wunsch bearbeiten oder transformieren. Während Power Query fester Bestandteil von Excel 2016 ist, können Nutzer von Excel 2013 dies als Add-in herunterladen und installieren. Download: bit.ly/excel2013powerquery.

Datenquellen

Power Query unterstützt bereits von Haus aus zahlreiche Möglichkeiten, verschiedene Datenquellen zu nutzen. Der User hat dabei nicht nur die Möglichkeit, Dateien zu importieren, sondern auch Datenbanken oder APIs, wie zum Beispiel die Facebook API, direkt abzufragen und mit wenigen Klicks entsprechende Analysen umzusetzen.

Aus Datei

Datenexports findet man heutzutage in fast jedem Tool. Diese werden häufig als CSV-Datei bereitgestellt, aber auch Excel-Dateien oder XML-Dateien sind keine Seltenheit. Für Power Query alles kein Problem, die Liste der unterstützten Dateiformate ist umfassend.

Quelle

Beschreibung

Arbeitsmappe

Daten aus einer Excel-Arbeitsmappe importieren

CSV

Daten aus einer durch Trennzeichen getrennten Datei (CSV) importieren

XML

Daten aus einer XML-Datei importieren

Text

Daten aus einer Textdatei importieren

JSON

Daten aus einer Json-Datei importieren

Ordner

Metadaten und Links über Dateien in einem Ordner importieren

 

Aus Datenbank

Wenn die Datenmengen wachsen, kommt man nur schwer an einer eigenen Lösung vorbei. Mit diesem Verbindungstyp kann man direkt auf Microsoft-Datenbanken zugreifen und die gewünschten Daten abfragen.

Quelle

Beschreibung

SQL Server-Datenbank

Daten aus einer Microsoft SQL Server-Datenbank importieren

Microsoft Access-Datenbank

Daten aus einer Microsoft Access-Datenbank importieren

SQL Server Analysis Services-Datenbank

Daten aus einer SQL Server Analysis Services-Datenbank importieren

 

Aus andere Quellen

Viele Tools bieten inzwischen APIs, also Schnittstellen, zu ihren Daten an. Der Vorteil: Man erhält immer aktuelle Daten.

Quelle

Beschreibung

Aus dem Web

Daten aus einer Webseite importieren

Aus OData-Datenfeed

Daten aus einem OData-Datafeed importieren

Von Facebook

Daten von Facebook importieren

Aus ODBC

Daten aus ODBC importieren

Leere Abfrage

Eine ganz neue Abfrage schreiben

 

Welche Datenquelle ist die richtige?

Die Wahl der richtigen Datenquelle hängt in erster Linie davon ab, welche Art des Datenexports zur Verfügung steht. Ein CSV-Export ist meistens schnell gemacht und bietet einen guten Einstieg, um sich mit den Daten vertraut zu machen. Wer lieber mit aktuellen Daten arbeiten möchte, der sollte sich die Dokumentation der jeweiligen API genau durchlesen, um dann entsprechende Abfragen zu generieren.

Schritt 1: Google-Analytics-Daten exportieren

Im ersten Schritt erstellen wir nun eine CSV-Datei mit allen URLs aus Google Analytics. Dazu laden wir einen entsprechenden CSV-Export aus dem „Alle Seiten“-Report herunter (Abb. 2).

WICHTIG: Beim Export aus Google Analytics darauf achten, die angezeigten Zeilen auf 5.000 zu erweitern, denn es werden nur die Zeilen exportiert, die auch sichtbar sind.

Schritt 2: Crawl-Daten

Neben dem Datenexport als CSV-Datei ermöglichen viele Tools auch einen direkten Zugriff auf ihre Daten via API. Diese Lösung bietet meistens nicht nur mehr Flexibilität, sondern spart auch viel Zeit, weil die Daten einfach mit einem Klick aktualisiert werden können, während ein CSV-Export via Download erfolgen muss. Ein weiterer Vorteil einer API ist die Datenmenge, denn man kann vollständige Datensätze herunterladen. CSV-Exporte sind meistens auf eine bestimmte Anzahl von Zeilen limitiert, was bei großen Seiten schon mal einen nicht vollständigen Datenexport bedeuten kann.

Im nächsten Schritt werden wir die gleichen Daten aus OnPage.org einmal via API und einmal als CSV-Export mit Power Query verarbeiten. Wie bereits erwähnt, ist der Download einer CSV-Datei nicht ganz so bequem wie die Nutzung einer API, aber wie auch bei der API gilt bei CSV-Dateien unter Power Query: Steht das Set-up, muss man nur noch die Quelle aktualisieren. Im Falle der CSV-Datei bedeutet dies, die CSV-Datei durch eine neue zu ersetzen.

Option A: Daten via API importieren

Hinweis: Die OnPage.org-API ist erst ab dem Business-Paket verfügbar. Alle Pakete darunter, inklusive OnPage.org FREE können hingegen die CSV-Exportfunktion nutzen.

Starten wir zunächst Excel und erstellen über Daten >> Aus anderen Quellen >> Leere Abfrage eine neue Abfrage. (Abb. 3).

Im Power-Query-Editor starten wir nun Erweiterter Editor (Abb. 4).

Im nächsten Schritt gehen wir nun in OnPage.org Zoom und rufen den API-Call für den Was-ist-indexierbar?-Report auf (Abb. 5).

Der API-Call, den wir nun erhalten, ermöglicht es uns, alle Daten aus dem Report als strukturierte Daten zu empfangen. Bevor wir ihn aber in den Abfrage-Editor einfügen, müssen wir vorher noch alle Anführungszeichen durch doppelte Anführungszeichen ersetzen und an der passenden Stelle (Markierung 1 in Abb. 6) in den folgenden Code einfügen.

Als Ergebnis erhalten wir nun alle Daten aus dem Was-ist-indexierbar?-Report in einer Vorschau. Hier können wir, wenn nötig, die Daten transformieren und weiterverarbeiten. Als Nächstes klicken wir nun auf „Schließen & Laden“ und erhalten als Ergebnis alle Daten in einer Excel-Tabelle, die auf Wunsch jederzeit aktualisiert werden kann.

Option B: Crawler-Daten via CSV importieren

Wer über keinen API-Zugang verfügt oder diesen nicht nutzen möchte, der kann die Crawler-Daten auch als CSV-Export nutzen. Der große Vorteil bei Power Query: Hat man einmal das Set-up gemacht, kann man die Daten aktualisieren, indem man einfach die CSV-Dateien durch eine neue Version ersetzt.

Hinweis: CSV-Exporte stehen in OnPage.org bereits ab dem FREE-Account für alle Nutzer zur Verfügung.

Als Erstes laden wir uns einen CSV-Export herunter, dazu loggen wir unseren OnPage.org-Zoom-Account ein und rufen den Was-ist-indexierbar?-Report auf (1). Als Nächstes klicken wir nun auf das Zahnrad in der Tabelle und anschließend auf CSV-Export (2). Im darauffolgenden Fenster stellen wir sicher, die Datei als CSV zu exportieren und das Zeilenlimit entsprechend einzustellen (3) und klicken am Ende auf Export herunterladen (4). um die gewünschten Daten auf unseren Rechner zu übertragen (Abb. 8).

Nun starten wir Microsoft Excel und klicken unter Daten >> Neue Abfrage >> Aus Datei >> Aus CSV, wählen die entsprechende CSV-Datei aus und klicken nach der Vorschau auf Laden (Abb. 9).

Profi-Tipp: Bei großen Seiten bietet sich an dieser Stelle an, eine Spalte mit dem jeweiligen Verzeichnis zu erstellen. Dazu einfach die URL-Spalte duplizieren und die Option „Spalte teilen“ mit dem Trennzeichen „/“ verwenden und am Ende die überflüssigen Spalten löschen.

Die Crawl-Daten aus der CSV-Datei sind nun importiert und können jederzeit durch eine aktuelle CSV-Datei ersetzt und durch einen Klick auf Aktualisieren erneuert werden.

Schritt 3: Google Analytics und Crawl-Daten zusammenführen

Im nächsten Schritt importieren wir nun die Daten aus Google Analytics und verbinden diese mit unseren Crawl-Daten. Zunächst klicken wir in einem anderen Arbeitsblatt auf Neue Abfrage >> Aus Datei >> Aus CSV (Abb. 10).

Nun wählen wir den CSV-Export aus Analytics aus und klicken beim Vorschaufenster auf Bearbeiten. Denn wir wollen nicht nur die CSV-Datei importieren, sondern gleich mit unseren Crawl-Daten zusammenführen. Da Google Analytics die Daten leider ohne Domain exportiert, müssen wir da manuell nachhelfen. Dazu erzeugen wir eine neue benutzerdefinierte Spalte mit folgender Formel (Abb. 11):

Wir tragen unsere Domain in Anführungsstrichen ein, verbinden sie über das &-Zeichen mit dem Feld URL und erhalten auf diese Weise eine Spalte mit der vollständigen URL. Im nächsten Schritt klicken wir nun auf Start >> Abfragen zusammenführen und wählen die zwei gemeinsamen Spalten aus (Abb. 12).

Als Ergebnis erhalten wir eine große Datentabelle, die wir anschließend individuell wie in Excel gewohnt mithilfe von Pivot Charts schön und übersichtlich nach den eigenen Wünschen und Erkenntniszielen visualisieren können (Beispiel siehe Abb. 13).

PRO-Tipp: Wer mehrere Domains überwachen möchte, der kann sich mithilfe von Power Query ein Multi-Domain-Dashboard bauen. Durch den Einsatz unterschiedlicher APIs hat man auf diese Weise alle relevanten KPIs im Überblick oder generiert sich zum Beispiel entsprechende Listen von 404 mit viel Linkjuice (OnPage Rank) oder auch mit vielen Besuchern durch die Google-Analytics-Daten (Abb. 14).

Fazit

Power Query ist eine mächtige Erweiterung, mit deren Hilfe man verschiedene Datenquellentypen abfragen, bearbeiten und transformieren kann. Konnte man unterschiedliche Datenquellen in der Vergangenheit nur mit einem SVERWEIS zusammenführen und brauchte außerdem noch entsprechende Rechenleistung, kann man heute alles mit Power Query für Excel erledigen. Auch das Erstellen eines individuellen Dashboards, das viele unterschiedliche Quellen nutzt, ist dank Power Query auch ohne Programmierkenntnisse möglich. Viel Spaß mit Power Query!