SISTRIX AI/Chatbot Research Tool

Mit unserem neuen AI/Chatbot Research Tool bekommst du tiefgehende Einblicke in die Sichtbarkeit deiner Marken, Entitäten und Quellen innerhalb der wichtigsten KI Chatbots. Aktuell unterstützen wir Analysen für ChatGPT, Gemini und Deepseek.

Ähnlich wie du es schon von unseren etablierten Tools für Google, Amazon und Social Media kennst, greifen alle unsere Kunden auf die gleiche, umfangreiche Datenbasis zu. Das ermöglicht euch präzise Analysen auf einer breiten Informationsgrundlage.

Ein riesiger Vorteil dieses Tools ist die blitzschnelle Verfügbarkeit der Ergebnisse. Weil alle Daten schon vorab ermittelt wurden, bekommst du deine Antworten in Sekundenbruchteilen ganz ohne lange Wartezeiten. Zukünftig werden wir außerdem eine Verlaufs- und Historienfunktion integrieren, die es euch erlaubt, Veränderungen über die Zeit zu verfolgen.

Prompts

Um dir aussagekräftige Analysen zu ermöglichen, nutzen wir für jede der unterstützten Sprachen Deutsch, Englisch, Französisch, Spanisch und Italienisch einen umfassenden Datensatz von jeweils 10 Millionen Prompts.

Wir wählen diese Prompts sorgfältig aus, damit sie einen repräsentativen Querschnitt der tatsächlichen Chatbot Nutzung in den jeweiligen Ländern und Sprachen abbilden. Diese Prompts stammen aus verschiedenen Quellen. Dazu gehören zum Beispiel die Prompt Vorschläge, die ChatGPT bei der Eingabe anbietet, aber auch häufig gestellte Nutzerfragen aus den Google Suchergebnissen sowie weitere relevante Datenquellen.

Damit unsere Daten immer aktuell bleiben, aktualisieren wir unsere Prompt Datenbank regelmäßig. Das heißt, wir fügen neue Prompts hinzu und entfernen gleichzeitig solche, die weniger oder gar nicht mehr genutzt werden. So stellen wir sicher, dass die Daten die aktuellen Nutzungsgewohnheiten widerspiegeln.

Es ist uns wichtig zu erwähnen, dass die Datenlage und die Verfügbarkeit verlässlicher Grundlagen für LLM/KI Analysen aktuell noch herausfordernder sind als zum Beispiel bei Google oder Amazon. Das ist aber eine Entwicklung, die wir aus der Frühzeit der Google Analyse kennen. Auch dort hat sich die Datenqualität schrittweise verbessert. Wir sind zuversichtlich, dass das auch bei den LLM Daten der Fall sein wird.

Antworten der Chatbots

Im Bereich „Search“ fragen wir die Antworten von aktuell drei großen, relevanten LLMs für 10 Millionen Prompts pro Sprache ab. Derzeit unterstützen wir OpenAI ChatGPT, Google Gemini und DeepSeek. Wenn neue, wichtige Marktteilnehmer dazukommen, planen wir, diese ebenfalls aufzunehmen.

In den Antworten der LLMs erkennen wir Entitäten wie Marken, Personen, Orte und mehr sowie die zugehörigen Quellenangaben. Diese Daten bereiten wir für deine Analyse auf. Ähnlich wie bei Google und Amazon entsteht so die Möglichkeit zur Rückwärtssuche: Du kannst herausfinden, bei welchen Prompts deine Marke oder die deiner Wettbewerber genannt wird.

Wir fragen immer die aktuellen, relevanten Modelle ab. Wenn ein Anbieter ein neues Modell vorstellt, bemühen wir uns, dieses zeitnah bereitzustellen. Ältere Modelle halten wir weiterhin vor, damit du Vergleiche im zeitlichen Verlauf anstellen kannst.

Eine häufigere Abfrage der Modelle ergibt keinen Mehrwert, denn die Informationen in diesen Foundation Modellen sind statisch. Das heißt, bei mehrfachen Abfragen ändert sich nur die Formulierung leicht, die zugrunde liegenden Informationen bleiben aber gleich. Die Verbindung von LLMs und Websuche, wie bei Perplexity oder ChatGPT Websearch, führt zu dynamischeren Ergebnissen. Diese kannst du in deinen Projekten individuell verfolgen.

Aktuell unterstützen wir diese Foundation Modelle der Chatbots:

  • OpenAI ChatGPT
    • gpt-4o-mini
    • gpt-4.1-mini
  • Google Gemini
    • gemini-2.0-flash-lite
    • gemini-2.0-flash
    • gemini-2.5-flash
  • Deepseek
    • v3

Position und Ranking

Innerhalb der KI Antworten ermitteln wir das Ranking von Marken und weiteren Entitäten getrennt. Es wird also gemessen, als die wievielte Marke eine bestimmte Marke in der Antwort genannt wird. Das gleiche passiert für alle anderen Entitäten Typen wie Personen, Orte und so weiter ebenfalls, hier aber gesammelt.

AI-Sichtbarkeitsindex

Die Berechnung des Sichtbarkeitsindex für Marken, Entitäten und Quellen läuft im Grunde genauso ab wie du es schon von Google kennst. Es sind drei Schritte:

  1. Antworten sammeln: Zuerst sammeln wir die Antworten der LLMs für 10 Millionen repräsentative Prompts.
  2. Antworten gewichten: Im zweiten Schritt gewichten wir diese Antworten. Dabei ist wichtig, an welcher Position in der Antwort die Information steht und wie häufig der Prompt genutzt wird.
  3. Werte aufsummieren: Zum Schluss werden alle gewichteten Werte für alle Entitäten, Marken und Quellen aufsummiert.

Für Marken, Entitäten und Quellen gibt es jeweils pro Sprache und Chatbot einen eigenen Sichtbarkeitsindex. Hierbei werden immer 1 Million Sichtbarkeitspunkte verteilt.

Der Gesamt AI Sichtbarkeitsindex für eine Marke, Entität und Quelle ergibt sich dann aus der Addition der einzelnen Sichtbarkeitswerte der drei Chatbots.Die Position zeigt dir, an welcher Stelle in der Reihenfolge der sichtbarsten Marken deine jeweilige Marke steht. Die Marke mit dem höchsten Sichtbarkeitsindex bekommt also die Position #1, und von dort wird dann absteigend gezählt.

Häufige Fragen und Antworten

Wieso ändern sich die Ergebnisse nicht?

Die Chatbots nutzen sogenannte Foundation-Modelle von OpenAI, Gemini oder Deepseek. Diese Modelle arbeiten mit einem festen Datenbestand, der erst mit der Veröffentlichung eines neuen Modells aktualisiert wird. Wenn man denselben Prompt mehrfach stellt, kann sich die Formulierung der Antwort leicht ändern, an den Fakten ändert sich jedoch nichts, da das zugrundeliegende Modell gleich bleibt. Wir erheben neue Daten jeweils dann, wenn ein neues Foundation-Modell verfügbar ist, zum Beispiel beim Wechsel von GPT-4o zu GPT-4.1.

Wie werden Positionen gemessen?

In den Text-Antworten der Chatbots erkennen wir Entitäten wie Marken, Orte, Personen, Quellen und weitere Typen. Für jede dieser Entitäten erfassen wir die Position der jeweiligen Nennung im Antworttext. Die Zählung erfolgt dabei getrennt: Für Marken werden ausschließlich andere Markennennungen gezählt, für alle übrigen Entitäten werden die Positionen aller anderen Entitäten gemeinsam ausgewertet.

Wieso sind die Logos von Marken manchmal nicht vorhanden oder falsch?

Die Chatbot-Antworten enthalten Markennamen als Fließtext. Wir analysieren diesen Text und erkennen Marken sowie weitere Entitäten im jeweiligen Kontext. Um die Wiedererkennbarkeit zu verbessern, reichern wir bekannte Marken mit Logos an. Diese beziehen wir über verschiedene Schnittstellen von Drittanbietern. In den meisten Fällen funktioniert dies zuverlässig, es kann aber vorkommen, dass kein oder ein falsches Logo angezeigt wird. Wir bemühen uns, diese Fälle zu minimieren und können Logos auch manuell nachpflegen. Bitte wende dich dazu an unseren Support.

Wieso wird meine Marke nicht als Entität erkannt?

Generell funktioniert der Research-Bereich der AI/Chatbot-Analyse so, dass wir viele Millionen Prompts bei unterschiedlichen Chatbots in unterschiedlichen Sprachen automatisiert abfragen und die Ergebnisse auf das Vorhandensein von Entitäten wie Marken analysieren. Wenn eine bestimmte Marke dort nicht erkannt wird, kann das unterschiedliche Ursachen haben: Die einfachste Ursache ist, dass die Marke in keiner der Chatbot-Antworten genannt wurde. Auch, wenn Chatbots in der Regel ein ziemlich umfassendes Wissen haben, kennen sie nicht jede Marke und erwähnen auch nicht jede Marke. Es kann aber auch vorkommen, dass Chatbots eine andere Schreibweise nutzen, als die Marke selbst. Auch kann es vorkommen, dass wir eine Marke nicht als Entität erkennen.