GEO-Tools (1): Herausforderungen bei der Messung

|

Digitale Sucherlebnisse verändern sich rasant. KI-gestützte Antworten rücken in den Vordergrund (Stichwort: Zero-Click-Trend), klassische Rankings verlieren an Sichtbarkeit, und viele gewohnte Metriken greifen nicht mehr. Genau hier setzen GEO-Tools an: Sie sollen uns zeigen, wie Inhalte in KI-Umgebungen performen – doch die Messung ist mit einigen Herausforderungen verbunden, die ich heute im ersten Teil unserer Reihe beleuchten möchte.

Was steckt hinter dem Zero-Klick-Trend? 

Immer mehr Antworten entstehen direkt im Prompt. Nutzer*innen erhalten Ergebnisse, ohne auf eine Website zu klicken. Dadurch fehlt uns ein Teil der klassischen SEO-Signale, die wir früher gut messen konnten. GEO-Ergebnisse tauchen in Unterhaltungen oder Tool-Oberflächen auf – oft ohne Link, Quelle oder Impression. Für die Analyse bedeutet das: Wir müssen neue Wege finden, um Relevanz, Sichtbarkeit und Traffic zu bewerten. 

Daher sollten wir folgende Punkte überdenken und uns intensiver damit beschäftigen: 

1. Ausgangspunkt jeder Analyse: selbst ausprobieren

Der Ausgangspunkt jeder Analyse ist das eigene Ausprobieren von Prompts und das Verständnis, wie KI-Tools funktionieren – wann sie zitieren, auf Datenquellen zugreifen oder sogar browsen. 

Hierbei sollten wir uns alle relevanten KI-Modelle ansehen und testen. Wir bei mittwald tun dies bereits im Rahmen unseres eigenen AI-Hostings

2. Nutzung von Analysetools, die Prompts verwenden

Ich kann aktuell keine allgemeine Empfehlung aussprechen, jedoch sind folgende Tools meiner Meinung nach relevant: 

  • peec.ai
  • Rankscale
  • Scrunch AI
  • Superlines
  • Mentions
  • Sistrix

Du solltest bedenken, dass die Ergebnisse – außer bei Sistrix – sehr individuell sind und stark von der Gestaltung der Prompts abhängen. Bitte denk daher nicht aus reiner SEO-Sicht, sondern formuliere vollständige Sätze, gern mit ein bis zwei Bedingungen. Siehe Prompts wie eine Unterhaltung mit Textfunktion und achte darauf, unnatürliche Formulierungen zu vermeiden – schreibe also quasi, wie du sprichst

Mein Fokus liegt derzeit besonders darauf, dass nachvollziehbar ist, wie die Daten erhoben werden, und dass wir sie in den richtigen Kontext setzen können. 

3. Logfile-Analyse wird wichtiger 

Die Logfile-Analyse spielt eine zunehmend zentrale Rolle, um zu verstehen, welche KI-Crawler es gibt. 

Wichtig ist die Unterscheidung der Crawler zwischen: 

  • Echtzeit-Websuche
  • Training
  • Aktualisierung
  • „On-Demand Fetcher“ (z. B. beim Posten von Links)

Dadurch kannst du erkennen, wo es eventuell technische Probleme gibt, und gleichzeitig Indikatoren für Relevanz ableiten – ein kleiner Ersatz für Traffic-Messung und ein Hinweis auf die Bedeutung einer Seite. Ich verwende dazu den Matomo Logfile Analyzer

Jetzt aber mal reinfolgen!

Abonniere Tipps für CMS und Dev-Tools, Hosting Hacks und den ein oder anderen Gag. Unsere schnellen Takes für dich per E-Mail.

Wie dürfen wir dich ansprechen?

4. Nutzersignale und Conversion 

Am Ende sind die Signale der Nutzer auf der Website entscheidend – idealerweise bis hin zur Conversion. Die wenigen verfügbaren Daten solltest du so präzise wie möglich erfassen. 

Ich verwende dazu bspw. eTracker und Matomo. Beide helfen auch dabei, AI-Traffic zu erkennen und herauszufiltern. 

Hier findest du einen hilfreichen Beitrag zu dem Thema: GEO, AEO und LLMO mit eTracker Analytics 

5. Wohin wir als Nächstes schauen 

GEO verändert, wie wir Sichtbarkeit verstehen. Wir können weniger messen als früher – also müssen wir kreativer werden. Wir testen, beobachten und kombinieren Datenpunkte, statt uns auf eine einzige Quelle zu verlassen. 

Der Blick auf Prompts, Logfiles und Nutzersignale zeigt uns, wo unsere Inhalte Wirkung entfalten. Die Methoden entwickeln sich weiter, und wir entwickeln uns mit ihnen. 

Next up ...

Im nächsten Teil der Reihe gehen wir tiefer in die Technik hinter GEO: Welche Infrastruktur zählt? Welche Schnittstellen sind relevant? Und wie beeinflussen Crawler unser Monitoring?