GEO-Tools (1): Herausforderungen bei der Messung
Was steckt hinter dem Zero-Klick-Trend?
Immer mehr Antworten entstehen direkt im Prompt. Nutzer*innen erhalten Ergebnisse, ohne auf eine Website zu klicken. Dadurch fehlt uns ein Teil der klassischen SEO-Signale, die wir früher gut messen konnten. GEO-Ergebnisse tauchen in Unterhaltungen oder Tool-Oberflächen auf – oft ohne Link, Quelle oder Impression. Für die Analyse bedeutet das: Wir müssen neue Wege finden, um Relevanz, Sichtbarkeit und Traffic zu bewerten.
Daher sollten wir folgende Punkte überdenken und uns intensiver damit beschäftigen:
1. Ausgangspunkt jeder Analyse: selbst ausprobieren
Der Ausgangspunkt jeder Analyse ist das eigene Ausprobieren von Prompts und das Verständnis, wie KI-Tools funktionieren – wann sie zitieren, auf Datenquellen zugreifen oder sogar browsen.
Hierbei sollten wir uns alle relevanten KI-Modelle ansehen und testen. Wir bei mittwald tun dies bereits im Rahmen unseres eigenen AI-Hostings.
2. Nutzung von Analysetools, die Prompts verwenden
Ich kann aktuell keine allgemeine Empfehlung aussprechen, jedoch sind folgende Tools meiner Meinung nach relevant:
- peec.ai
- Rankscale
- Scrunch AI
- Superlines
- Mentions
- Sistrix
Du solltest bedenken, dass die Ergebnisse – außer bei Sistrix – sehr individuell sind und stark von der Gestaltung der Prompts abhängen. Bitte denk daher nicht aus reiner SEO-Sicht, sondern formuliere vollständige Sätze, gern mit ein bis zwei Bedingungen. Siehe Prompts wie eine Unterhaltung mit Textfunktion und achte darauf, unnatürliche Formulierungen zu vermeiden – schreibe also quasi, wie du sprichst.
Mein Fokus liegt derzeit besonders darauf, dass nachvollziehbar ist, wie die Daten erhoben werden, und dass wir sie in den richtigen Kontext setzen können.
3. Logfile-Analyse wird wichtiger
Die Logfile-Analyse spielt eine zunehmend zentrale Rolle, um zu verstehen, welche KI-Crawler es gibt.
Wichtig ist die Unterscheidung der Crawler zwischen:
- Echtzeit-Websuche
- Training
- Aktualisierung
- „On-Demand Fetcher“ (z. B. beim Posten von Links)
Dadurch kannst du erkennen, wo es eventuell technische Probleme gibt, und gleichzeitig Indikatoren für Relevanz ableiten – ein kleiner Ersatz für Traffic-Messung und ein Hinweis auf die Bedeutung einer Seite. Ich verwende dazu den Matomo Logfile Analyzer.
Jetzt aber mal reinfolgen!
Abonniere Tipps für CMS und Dev-Tools, Hosting Hacks und den ein oder anderen Gag. Unsere schnellen Takes für dich per E-Mail.
4. Nutzersignale und Conversion
Am Ende sind die Signale der Nutzer auf der Website entscheidend – idealerweise bis hin zur Conversion. Die wenigen verfügbaren Daten solltest du so präzise wie möglich erfassen.
Ich verwende dazu bspw. eTracker und Matomo. Beide helfen auch dabei, AI-Traffic zu erkennen und herauszufiltern.
Hier findest du einen hilfreichen Beitrag zu dem Thema: GEO, AEO und LLMO mit eTracker Analytics
5. Wohin wir als Nächstes schauen
GEO verändert, wie wir Sichtbarkeit verstehen. Wir können weniger messen als früher – also müssen wir kreativer werden. Wir testen, beobachten und kombinieren Datenpunkte, statt uns auf eine einzige Quelle zu verlassen.
Der Blick auf Prompts, Logfiles und Nutzersignale zeigt uns, wo unsere Inhalte Wirkung entfalten. Die Methoden entwickeln sich weiter, und wir entwickeln uns mit ihnen.
Next up ...
Im nächsten Teil der Reihe gehen wir tiefer in die Technik hinter GEO: Welche Infrastruktur zählt? Welche Schnittstellen sind relevant? Und wie beeinflussen Crawler unser Monitoring?