karlsCORE public – Ein etwas anderes SEO-Tool

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Karl Kratz dürfte den meisten unserer Leser wohlbekannt sein – und sicherlich nicht nur von der letzten Seite jeder Ausgabe. Seine Ansätze sind meist etwas oder auch völlig ander(e)s. Was vielleicht nicht alle wissen: Er betreibt auch ein eigenes kleines Tool-Universum, in dem er Videos, Wissen und auch Dinge bereithält, die man für Suchmaschinenoptimierung einsetzen kann. Der Zusatz „public“ bei karlsCore meint nicht, dass man dort kostenlos Zugriff bekommen könnte. Diese Plattform kann nur jedes Unternehmen nutzen, denn karlsCore selbst wird wettbewerbsfrei gehalten, d. h., aus jeder Branche wird nur ein Unternehmen eingelassen und die Wartelisten sind laut dem Anbieter mittlerweile recht lang. Daher hat Karl Kratz schon vor Jahren einen für alle zugänglichen Teil eingegliedert, den karlsCore public. Mit einer (monatlich abrechenbaren) Eintrittskarte erhält man dort nicht nur Zugriff auf SEO-Tools, die in diesem Beitrag näher beleuchtet werden, sondern auch zu E-Books, Mediabooks, Videos, Codebeispielen, Begleitmaterial zu Seminaren und allerlei anderem nützlichem Material sowie gute Hilfestellungen.

Welche Ausrichtung hat karlsCORE public?

Wie bereits erwähnt, findet man bei karlsCORE public nicht nur Tools, die rein auf SEO ausgerichtet sind. Es handelt sich eher um eine Plattform, die viel hinterlegtes und abrufbares Wissen sowie auch Tools für die Optimierung für Google bereithält. Unter dem Menüpunkt „Wissen“ findet man wahrscheinlich mehr interessantes Material, als man je zu lesen die Zeit aufbringen dürfte. Dabei handelt es sich aber nicht um kurze Definitionen oder Hilfestellungen zu der einen oder anderen Toolfunktion, sondern man findet dort u. a. mehrstündige Videoaufzeichnungen von Konferenzen, ganze E- und Mediabooks und auch Codebeispiele, die man in die eigenen Webseiten einsetzen kann. Das Ganze wirkt wie eine kleine, aber sehr feine Buchhandlung für die Branche, in der ein Bibliothekar liebevoll Wichtiges gesammelt und sortiert hat.

Wie in Abbildung 2 zu sehen ist, hält das System derzeit 15 einzelne Module vor, drei weitere (grau dargestellt) sind aktuell in Entwicklung. Praktischerweise kann man sich die Kacheln nach eigenen Vorlieben sortieren und somit die häufiger genutzten Module zusammen weiter oben einstellen. Bis auf die Module „SEA Mitbewerber“ und „URL Shortener“ kann man die restlichen 13 für die SEO-Arbeit produktiv nutzen.

Alle Module wurden mit einem einführenden und ausführlichen Screenvideo versehen, das Einsteigern hilft, sich auf Anhieb zurechtzufinden, und ganz nebenbei bekommen sie die ersten Tipps für eine effiziente Nutzung. Natürlich können wir hier wie immer aus Platzgründen nicht auf jedes einzelne Modul eines vorgestellten Tools eingehen, sondern haben subjektiv diejenigen ausgesucht, die wir für besonders wichtig oder nützlich halten.

Das Crawlertool

Der Crawler kann bis zu 10.000 URLs abholen und bei Bedarf auch mehr als fünf URLs pro Sekunde holen (aktuell bis zu 50 URLs/Sek.), falls man die eigene Domain analysiert und dazu dann eine spezielle vom Tool zur Verfügung gestellte Datei auf den Webserver hochlädt. Das dient zum Schutz, damit man nicht versehentlich eine Website durch zu viele Anfragen lahmlegt. Der Crawler geht auf Wunsch dabei intelligent vor und bevorzugt URLs höherer Hierarchieebenen. Sofern die Domain mehr als die 10.000 URLs hat, erwischt man so auf jeden Fall die wichtigeren Seiten. Laut dem Anbieter braucht das Crawlen von 5.000 URLs etwa eineinhalb Stunden. Wichtig zu wissen ist, dass sich „URLs“ tatsächlich auf die Anzahl der Dokumentseiten bezieht, nicht etwa auch auf alle Bilder, die oft ja bei anderen Tools den Großteil des Crawlingbugets beanspruchen. Nach dem Crawlvorgang erhält man Zugriff auf die sehr umfassende Auswertung.

Das Crawlermodul ist in verschiedene Reiter unterteilt: Technik, Indexierbarkeit, Onpage, Social, Ressourcen, Links, Report sowie ein Überblicksfenster. Diese Reiter halten dann jeweils eigene Unterreiter bereit, wie in Abbildung 4 beispielhaft zu sehen ist.

Filter für die unten anstehenden URLs lassen sich in jeder Ansicht auf der rechten Seite per Mausklick aktivieren. Nach einem Klick auf „Ladezeit > 700 ms“ (Abbildung 4 Mitte rechts bei „Ladezeit“) werden dann nur noch die URLs angezeigt, um die man sich kümmern sollte. Das Tool folgt bei den Analysen der Empfehlung von Google für 200 ms für „Time to First Byte“. Ebenso bringt ein Klick auf den Filter „Statuscode 404“ sofort die Übeltäter ans Tageslicht.

Bekanntlich ist die interne Verlinkung für das Ranking nicht unerheblich. Suchmaschinen wie Google werten nicht nur die Anzahl der eingehenden Links für eine URL aus, sondern u. a. auch die Ankertexte der Links. So sollte man tunlichst vermeiden, mit dem gleichen Textanker auf unterschiedliche Dokumente zu verlinken. Der Linktext sollte also immer „unique“ sein, ansonsten verwässert man für die maschinelle Analyse die Relevanz der Seite(n). Wie schnell verwendet man aber einen gleichen Linktext auf unterschiedliche Seiten? Nachdem noch immer weder Shopsystemhersteller noch solche für CMS sich darum scheren, den Anwender genau dies nicht tun zu lassen, muss man hier wie an so vielen anderen Stellen auch selbst dafür Sorge tragen. Das geht realistischerweise nur unter Zuhilfenahme entsprechender Tools. Hierfür listet das Modul sowohl interne als auch externe Ankertexte bzw. deren Anzahl entsprechend auf. Geprüft wird weiterhin die Existenz der angelinkten externen Ziele auf Erreichbarkeit oder Weiterleitung.

Eine Besonderheit, auf die man unbedingt extra hinweisen muss, ist die Berechnung des PageRanks sowie des CheiRanks und die Kombination aus beiden, der sog. HubRank. Die Theorie hinter dem PageRank dürfte hinlänglich bekannt sein: Je mehr wichtige Seiten auf eine andere Seite verlinken, umso bedeutender wird auch diese. Dabei teilen sich alle abgehenden Links von einer Seite diesen vererbbaren Wert auf. Gehen 100 Links ab, kann vereinfacht erklärt jeder ein Prozent davon an die verlinkte Seite vererben. Sind es 200, bleibt nur noch ein halbes Prozent. Man darf sicher davon ausgehen, dass Google bei der Berechnung mittlerweile gegenüber dem Originalpatent hier diverse Unterschiede macht und z. B. Footer- oder Sidebar-Links weniger und Links aus dem primären Contentbereich mehr Bedeutung mit auf den Weg gibt – was auch Sinn macht. Während der PageRank also die Anzahl, vor allem aber die Bedeutung der eingehenden Links aufsummiert, macht der sog. CheiRank genau das Gegenteil. Er wird von der Anzahl der abgehenden Links einer Seite bestimmt und misst somit vereinfacht erklärt das Zentralitätsmaß einer Seite. Die Frage dahinter: Von welchen Seiten kommt man mit möglichst wenig Klicks zu allen anderen Seiten? Es dürfte klar sein, dass eine solche Kennzahl sehr nützlich für die Ausspielung im Ranking sein kann. Im Zweifel oder bei Seiten, die ansonsten ähnliche Werte für eine Suchphrase aufweisen, sollte man die bevorzugen, von der aus der Suchende möglichst schnell überall anders hingelangt – und eben nicht in Ebene zwölf landet und einen weiten (Klick-)Weg zurücklegen müsste, falls die einzelne Seite nicht genau passend wäre.

Das Crawlertool errechnet nun als Kombination aus den beiden Werten PageRank und CheiRank den sog. HubRank. Er zeigt an, welche Seiten die wertvollsten internen Links aufsammeln und gleichzeitig vom Klickgraphen her gesehen eher in der „Mitte“ der Webseiten steht (bezogen auf die internen Linkbeziehungen). Ergeben sich krasse Abweichungen gegenüber dem Gewollten für die eigene Site, sollte man hier ggf. mit einer Linkoptimierung ansetzen. In Abbildung 6 ist im oberen Teil (Ziffer 1) sehr gut zu sehen, dass hier Handlungsbedarf besteht. Die Seite mit den Fachbüchern ist im Berechnungsgeflecht die wichtigste Seite. Sehr viel weiter unten kommt dann die eigentliche Startseite. Das sollte nicht so sein und muss „repariert“ werden.

Im unteren Teil von Abbildung 6 erkennt man als Spaltenüberschrift (Ziffer 2) die drei Metriken nochmals, allerdings mit dem Präfix „Content“. Hier werden nur die Links zur Berechnung herangezogen, die im eigentlichen Contentbereich zu finden sind, also ohne Navigation, Kopf-, Fuß- oder Seitenbereich. Die Funktion ist laut dem Anbieter noch im Beta-Stadium. Die sog. „Boilerplate“ aus Webseiten herauszurechnen, ist kein einfaches Unterfangen, kommt aber wahrscheinlich dem, was Google mittlerweile tut, deutlich näher.

Ein besonderes Feature ist dabei die interne „Texteindeutigkeit“: Sie listet die URLs auf, deren Texte sich ähnlich sind – bis hin zur Dublettenerkennung.

Neben eigenen Reports über heruntergeladene Metriken bietet das Tool auch eine Reihe häufig von Nutzern nachgefragter fertiger Reports an (Abbildung 7). Wer hier etwas vermisst, meldet es dem Betreiber und die bauen das nach einer kurzen Prüfung ggf. für alle Nutzer ein.

Wie gesund sind Ihre Seiten? Der Website Health Index

Mit dem Modul „Website Health Index“ lassen sich einzelne URLs dauerhaft auf Veränderungen überwachen. Wie in Abbildung 8 zu sehen ist, wird dabei unterschieden (Ziffer 1) in die Kategorien Health Index (Übersicht), Indexierbarkeit, Inhalt, Onpage, Social, URL, Technik und Monitoring (Rankingüberwachung bei Google und Bing). Ein Klick auf eine Kategorie wechselt dann in diese und zeigt den zeitlichen Verlauf der Metrik (Ziffer 2). Unten werden dann die überwachten URLs gelistet und die einzelnen Metriken, die den Kategorieindex bilden. Diese Einzelwerte lassen sich ebenfalls anklicken (Ziffer 3) und weisen dann wiederum ihre innere Zusammensetzung auf. Im Beispiel wurde unter „Technik“ für eine URL der Wert „Caching“ aufgerufen. Von den beiden Werten ist einer die serverseitige Komprimierung, die man aus Performancegründen immer aktivieren sollte. Wie zu sehen ist, ist diese Komprimierung (GZip) nicht aktiv – warum auch immer. Auch das müsste gefixt werden und bringt natürlich ab sofort einen Geschwindigkeitsvorteil.

Das Website-Health-Index-Werkzeug liefert Online-Marketing-Verantwortlichen zwei wichtige Informationen:

  1. Einen dauerhaften Überblick über die „Gesundheit“ ihrer eigenen Website: Veränderungen können direkt analysiert und bis auf kleinste Details dargestellt werden. Gleichzeitig lassen sich für Veränderungen auch Benachrichtigungs-Prozesse für beliebig definierbare Teams festlegen: Dann erhält z. B. das Content-Team eine E-Mail, wenn sich wesentliche Ranking-Werte verändern.
  2. Einen detaillierten Einblick in die konkreten Tätigkeiten von Marktbegleitern: „Welcher Wettbewerber hat welche Änderungen an seiner Website vorgenommen und welche Auswirkungen, z. B. im Ranking, hatten diese?“ Mit wenigen Klicks kann eine dauerhafte Wettbewerbsanalyse erfolgen und zur Prävention automatisiert werden: Sobald ein Marktbegleiter zum Beispiel Texte intensiviert, wird das eigene Content-Team benachrichtigt. Das ermöglicht eine schnelle Handlung, bevor Ranking-Effekte beim Wettbewerber greifen.

Das Website-Health-Index-Werkzeug beendet so in gewisser Weise den „digitalen Blindflug“ und verschafft einen Überblick über die „Gesundheit“ der wichtigsten URLs einer Website – und die der Mitbewerber. Das Tool unterscheidet sich von anderen Monitoring-Werkzeugen unter anderem auch darin, dass der Anwender für sein Projekt individuell auf Domain- und URL-Ebene definieren kann, „was wichtig ist – und was nicht“.

Expertenwissen strukturiert direkt anwenden

Mit dem Werkzeug Everythink greift der Benutzer direkt auf eine komplette Wissensdatenbank voller Expertenwissen in Form von „Karten“ zu: Aktuell ist in karlsCORE public ein Kartenset für professionelle Site-Kliniken hinterlegt.

Wer z. B. seine Website verbessern möchte, geht systematisch die vielfältigen Karten durch und wendet die Fragen auf seine Webseiten an. Relevante Karten/Fragen werden auf einem Dashboard nach ihrer Dringlichkeit bzw. Wichtigkeit abgelegt.

Mit dem Klick auf die Aufgaben-Liste erhält man eine priorisierte Liste, die gemeinsam mit Team-Kollegen oder externen Dienstleistern abgearbeitet werden kann. Dazu ist ein leicht bedienbares Berechtigungs-System bereits integriert. Durch die wirklich recht breit angesetzten Kartensets bleiben sowohl wichtige Details als auch übergreifende Dinge auf dem Radar.

Nach Angaben des Betreibers erscheint als Nächstes ein Kartenset zur technischen Analyse. Das soll es auch Nicht-Technikern erleichtern, z. B. ihre Agentur präzise zu briefen und die Tätigkeiten zu überwachen. Everythink ist übrigens auch in karlsCORE free komplett frei nutzbar unter www.online-marketing.net/karlscore-free/.

Die Contenterstellung

Für die Erstellung von Content kann man gleich mehrere Module nutzbringend einsetzen: das Fragen-Tool, das WDF*IDF-Tool, die Schnellanalyse, den Suchbegriff-Finder und das Content-Tool.

Das Fragen-Tool

Nach Eingabe eines Suchbegriffs sucht dieses Tool nach den typischen Wer-, Wie-, Was-Fragen zu diesem Wort im Web. Dabei lassen sich der Umfang und die Suchtiefe nach dem eigenen Bedarf einstellen. Die Fragen und ggf. die dafür zu findenden Antworten helfen der eigenen Inspiration beim Finden von sinnvollem Text, der Besucher (hoffentlich) interessiert.

In Kombination mit dem Ebenen-Modell aus dem Wissensbereich des Tools versetzt das Fragen-Tool Texter in die Lage, besonders effiziente Frage-Antwort-Kombination zu erstellen und tatsächlich eher wirklich einzigartige Inhalte zu generieren.

Das WDF*IDF-Tool

Zur Erklärung von WDF*IDF hatten wir in der Website Boosting schon vergleichsweise viele Beiträge (siehe auch den Titelbeitrag in Ausgabe 18 (online abrufbar unter einfach.st/wdf18). Daher hier nur kurz die Erklärung, dass man damit anhand zu einer Suchphrase rankender Dokumente versucht, die semantisch „wichtigsten“ Wörter zu extrahieren, die zu dieser Suchphrase gehören. Man geht davon aus, dass für Google & Co. erst dann für eine Phrase ein gutes Ranking erzielt werden kann, wenn häufige Kookkurrenzen bzw. Proof-Keywords ebenfalls auf der Seite vorhanden sind. Wer einen umfassenden Text über Schuhe schreibt, wird nicht umhinkommen, auch Wörter wie Leder, Größe, Sohle oder Schnürsenkel zu verwenden. Das Tool hilft dabei, solche Wörter zu identifizieren, um sie bei eigenen Texten zu ergänzen, sofern sie noch fehlen. Dadurch wird der Text für eine semantische Analyse „holistischer“.

Einzelseiten-Schnellanalyse

Nach der Eingabe einer URL analysiert dieses Modul die Verwendung einzelner Wörter und führt eine Termgewichtung durch. Eine solche Analyse der Startseite von websiteboosting.com (Abbildung 11) zeigt das Problem ständig wechselnden Contents. In der neuen Version werden jeweils einzelne Beiträge angeteasert, die man online lesen kann. Daher schwanken die Begrifflichkeiten nicht nur immer wieder, auch deren Zusammensetzung und -wirkung ist hinsichtlich bestimmter Rankingbegriffe so nicht mehr gut steuerbar. Für diese Startseite mag das hinsichtlich der Besucherabsichten zu vernachlässigen sein, aber für spezielle Landingpages zu besonderen Themen sollte man ggf. schon mehr darauf achten, dass bei einer maschinellen Analyse die richtigen Begriffe oben die Köpfe herausstrecken. In unserem Fall haben wir bei Terminen häufiger das Wort April verortet, daher dominiert dieses Wort rein technisch gesehen. Wie immer gilt, solche Auswertungslogiken nicht stur und ohne Einschalten des eigenen Verstandes eins zu eins zu übernehmen bzw. umsetzen zu wollen. Das und ähnliche Tools geben Hilfestellung und man sollte immer nur das ausführen, was auch inhaltlich Sinn macht. Oder wie Karl Kratz immer zu sagen pflegt: Versuche nicht, einen Text in eine Kurve einzuprügeln!

Das Herzstück: Content-Tool

Im Modul „Content Tool“ findet man neben einer kleinen Verwaltungsebene einen umfassenden Editor zur Texterstellung inklusive einer HTML-Formatierungsmöglichkeit. Eingegebener oder einkopierter Text lässt sich hier nach allen Regeln der Kunst veredeln und sinnvoll ergänzen. Neben verschiedenen Metriken über den Text selbst (statistische Daten, struktureller Aufbau wie z. B. H1, Anzahl von Listen etc. sowie Lesbar- und Verständlichkeitsmaße), Termgewichtungen (auch sog. beweisführende Therme und die Textunterschiedlichkeit), gibt es auch nützliche Funktionen zur Recherche. Hier werden automatisch je nach dem verwendeten Text Fragen zum Thema angezeigt, KeywordIdeen und -Kombinationen und eine automatische Synonymdatenbank. Diese hilft, es zu vermeiden, ein bestimmtes Wort allzu oft in einem Text zu verwenden (Abbildung 12, Ziffer 1). Im Reiter „Briefing“ gibt es dann wirklich eine extrem umfangreiche Unterstützung bei der Erstellung von Briefings für (externe) Texter.

Nicht unterschätzen sollte man die zunächst unscheinbare Funktion „Unterschiedlichkeit“: Sie gibt wertvolle Hinweise, welche Begrifflichkeiten zu einem thematischen Begriffs-Cluster gehören, jedoch auf gut rankenden Wettbewerberseiten eben nicht maßgeblich vorkommen: Eine wirklich schlaue Methode, um systemunterstützt Einzigartigkeit und Unterschiedlichkeit gegenüber bereits rankenden Seiten zu erzeugen.

Bekanntlich wird ein zugelieferter oder zugekaufter Webtext nur so gut, wie es das Briefing erlaubt. Wer heute noch Texte bestellt, die einfach um ein bestimmtes Keyword herum geschrieben werden, ist selbst schuld, wenn die Besucher beim Lesen Unwohlsein verspüren und die Suchmaschine gelangweilt gähnt, weil sie diesen Text so ähnlich schon mehrfach gelesen hat. Was tun ungebriefte Texter? Sie googeln via Keyword und raspeln sich den Text aus den Fundstellen zusammen – jeder hat es ein klein wenig umgeschrieben, mit zum Teil anderen Wörtern. Das Problem ist nur, dass das eben alle externen Texter machen und am Ende ein Textpool von immer denselben zum Suchbegriff bereits rankenden (!) Seiten entsteht. So kann man nicht besser als andere werden – im Gegenteil baut man sich das Hinterherlaufen praktisch fest ins (Text-)Geschäftsmodell mit ein.

Hier helfen die vorgegebene Struktur und die vielen Informationen des Tools, individuell zusammenzustellen, was man wirklich haben möchte, wer Zielgruppe ist, welcher Wert vermittelt werden soll und noch sehr viel mehr. Das macht echte Mühe, all das zusammenzutragen. Aber am Ende fragt man sich, wie flach und unüberlegt dahingeworfen frühere Textaufträge nach außen (oder auch innen) weitergegeben wurden.

Service und Hilfe

Für jedes Modul hat Kratz ein Video aufgesetzt, in dem er den Einsatz erklärt. Gleich auf der Startseite gibt es ein für alle sichtbares Board, in dem man Fragen und Anregungen hinterlassen kann. Die Antworten kommen in der Regel sehr schnell. Hier wird also nichts versteckt und erfrischend offen kommuniziert. Im Hauptmenü gibt es eine eigene Funktion „Feedback“ (Abbildung 13). Witziges Detail am Rande: Man merkt an solchen Stellen, dass Kratz das von ihm ständig geforderte Thema Emotionalität auch in das eigene Tool packte. Klickt man das Feedback-Fenster auf, gibt es dort keinen schnöden „Abbrechen“-Button wie sonst üblich, sondern „Doch kein Feedback“. Hört man mit einem offenen Ohr in den eigenen Kopf, erkennt man, dass es einem irgendwie einen Tick schwerer fällt, das Formular unkommentiert einfach wieder zu schließen – oder? Abbrechen meint Rückzug, es ist nichts passiert bisher. Etwas „doch nicht zu machen“, zahlt gedanklich in eine andere Hirnschublade ein.

Vielleicht ist auch das eine weitere Art der Hilfe im Sinne eines Stupsers, aus der bei der Benutzung der Plattform zu spürenden Wärme in der Kommunikation etwas für die Kundenkommunikation auf der eigenen Website zu lernen. Das funktioniert natürlich nur, wenn man sich bewusst macht, welche Mechanismen dahinterstecken – oder eben die vielen hinterlegten E-Books liest. Theorie und Praxis.

Ein kleines Erlebnis mit dem Betreiber verdeutlicht vielleicht, wie hoch man Service und Kundenzufriedenheit dort hält. Im Bereich der Werkzeuge gibt es eine Auswertung aller internen Links nach Page-, Chei- und HubRank sowie weitere berechnete Metriken. Diese Daten hätten wir gerne als Download gehabt, um intern selbst damit weiterarbeiten zu können. Eine kurze diesbezügliche Anfrage, dass dies doch ganz nützlich wäre – und es kam nach etwa 90 Minuten eine Mail zurück. Nicht etwa mit dem Hinweis, man werde das prüfen und ggf. auf die Updateliste setzen, sondern mit dem Hinweis, dass dieses Feature eben eingebaut wurde und ab sofort nutzbar sei (Abbildung 14).

Preise

Der Zugang zu karlsCORE public ist für 180.- zzgl. MwSt. pro Monat zu haben. Für einen Buchungszeitraum von drei Monaten (170.- €/Monat netto) und sechs Monate (160.- €/Monat netto) gibt es jeweils zehn Euro Rabatt auf den Monat. Bezahlt werden kann mit Kreditkarte oder PayPal. Je nach gewünschten Einstellungen verlängert sich der Account jeweils oder läuft einfach entsprechend aus. Es entstehen also keine automatischen Verlängerungsketten, wenn man dies nicht möchte bzw. Bedenken hat, eine Kündigung zu vergessen. Das ist fair.

Angesichts der nutzbaren Tools, aber unbedingt auch wegen des vielen dort abrufbaren Zusatzwissens lohnt sich karlsCORE public sicherlich für die allermeisten Unternehmen. Da es keinen Testzugang gibt, muss man sich entscheiden, ob man das Risiko eingeht, sich für einen Monat für 180.- € dort umzusehen. Auf jeden Fall sollte man hier einigen Zeitaufwand einplanen. Mal schnell reinsehen, ein wenig herumklicken und das eine oder andere Mediabook aufzuklicken, ist sicher keine gute Strategie. Für karlsCORE public sollte man sich Zeit nehmen und neben den SEO-Tools vor allem das dort abrufbare Wissen in Ruhe durchsehen. Erst dann kann man wirklich entscheiden, ob und wie lange dortzubleiben und sich für einen selbst lohnt.

Wie alle bisher getesteten Tool gilt auch und ganz besonders hier, dass kein Tool wirklich zu teuer ist. Es hängt ausschließlich davon ab, ob man es wirklich nutzt und, na ja, auch was man davon in die eigene Website einfließen lässt. Alles in allem erscheint karlsCORE public als eine wirklich gute Investition.

Tipp

Wer sich karlsCORE in einem allerdings sehr reduzierten Umfang ansehen möchte, meldet sich einfach zuerst bei karlsCORE free an: Diese Version umfasst das Everythink-System, das Fragen-Tool, den URL-Shortener und ein nützliches E-Book: www.online-marketing.net/karlscore-free/.

Fazit

karlsCORE public enthält, wie in Abbildung 2 bereits ersichtlich war, noch sehr viel mehr Module, als wir hier beschreiben konnten. Und es werden ständig mehr. Wir sind besonders auf das angekündigte Modul „Domainfokus“ gespannt. Bekanntlich gibt es Patente von Google, in denen man beschreibt, wie man domainweit Keyworddichte und einen WDF*IDF-Ansatz (US Patent 7996379 B1) durchführen kann, um die thematische Ausrichtung einer Domain zu analysieren. Und auch im Google Research Blog findet man dazu Hinweise mit dem vielsagenden Titel „Teaching machines to read between the lines“ (https://einfach.st/rbtl2).

Neben vielen nützlichen Tools zur Unterstützung der Optimierung für Suchmaschinen findet man bei karlsCORE public auch wie bereits erwähnt noch andere Funktionen für die Online-Arbeit und vor allem sehr viele weiterführende Dokumente und inspirierende E-Books. Darüber hinaus haben Nutzer, die am 25. Oktober 2019 ein aktives karlsCORE-public-Konto besitzen, freien Zugang zum jährlichen karlsCORE-Event mit vielen spannenden Themen. Und vielleicht ist es auch genau diese Mischung, die karlsCORE public so interessant macht? Nicht die ausschließliche Konzentration auf Suchmaschinenoptimierung, sondern eben auch die auf den Besucher und die nötige Prozessunterstützung. Wer Karl Kratz kennt bzw. ihn schon einmal auf der einen oder anderen Konferenz gehört hat, weiß, dass er oft von Herzblut spricht, das man in seine Webseiten legen sollte. Eben genau dieses spürt man auch in seinen Tools. Und damit sind sie in jedem Fall eine deutliche Empfehlung wert.

Weitere Infos unter www.online-marketing.net/karlscore-public/