AI-Agent

Ein AI-Bot ist ein automatisiertes Programm, das Webseiten abruft und Informationen sammelt, meist nach festen Regeln (z. B. Crawling, Monitoring, Preisabgleich). Ein AI-Agent (KI-Agent) kombiniert dagegen Retrieval, Planung und Tool-Nutzung: Er zerlegt ein Ziel in Schritte, wählt Quellen, ruft APIs oder Browser-Aktionen auf und liefert ein Ergebnis. Kurz: Bot = Datensammlung; Agent = Aufgabenlösung mit Kontext, Entscheidungen und Aktionen. In SEO/GEO zählt wie gut Inhalte Daten und Endpunkte maschinenlesbar sind.

Welche technischen Prozesse durchläuft ein AI-Agent?

Ein KI-Agent arbeitet meist als Orchestrierung aus LLM + Tools. Typische Pipeline:

  • Ziel & Intent: Prompt wird in Teilaufgaben, Constraints und Erfolgskriterien übersetzt.
  • Kontextaufbau: Session-State, Nutzerpräferenzen, „Memory“/Cache, aktuelle Signale.
  • Retrieval (RAG): Web-/Indexsuche, Dokumente laden, in Chunks schneiden, Relevanz via Embeddings ranken, Quellen triangulieren.
  • Planung: Tool-Auswahl, Reihenfolge, Fallbacks, Budget (Zeit/Requests), Sicherheitsregeln.
  • Ausführung: Browser-Navigation, Formularschritte, API-Calls (REST/GraphQL), Datenabgleich, Berechnungen.
  • Validierung: Konsistenzchecks, Dublettenprüfung, Zitat-/Passagenprüfung, Policy-Filter.
  • Ergebnis: Antwort, Link, Aktion, ggf. strukturierte Ausgabe (JSON).

Agents respektieren robots.txt, interpretieren HTTP-Statuscodes, folgen Redirects und nutzen bei JS-Sites Headless-Rendering, um den DOM zu extrahieren. Für Websites heißt das: strukturierte Daten (Schema.org/JSON-LD), stabile Canonicals, saubere Sitemaps (inkl. lastmod) und Anker-IDs erleichtern die Passage-Adressierung. Niedrige Latenz, wenige 5xx und klare 301-Weiterleitungen reduzieren Retries und Abbrüche. Je konsistenter Entitäten, Produktattribute und Policies modelliert sind, desto sicherer kann der Agent Daten übernehmen und weiterverarbeiten.

Was bedeutet das Auftreten von AI-Agents in der organischen Suche?

Wenn AI-Agents Inhalte aus der „klassischen“ organischen Suche beziehen, wird SEO stärker zu einer Frage der technischen Verlässlichkeit und Datenqualität. Agents verhalten sich oft anders als klassische Crawler: Sie testen Pfade, vergleichen Varianten und springen zwischen Quellen, bis ein Task „fertig“ ist.

Wichtige Beobachtungen im Logfile:

  • viele kurze Requests (Discovery), teils in Wellen
  • häufiger Follow von internen Links, Filtern, Pagination
  • mehr Abrufe von Policies (Versand, Retouren), Preisen, Verfügbarkeit

Was das für Technical SEO bedeutet:

  • Statuscodes: 200 für kanonische Inhalte, 301/308 sauber, keine Ketten/Loops
  • Rendering: kritische Inhalte im gerenderten HTML (SSR/Prerender), nicht nur hinter JS-Events
  • Informationsarchitektur: klare H1–H3-Hierarchie, ToC, sprechende URLs, stabile Anker-Links
  • Duplicate-Control: Canonicals, Parameter-Handling, facettierte Navigation „kontrolliert“
  • Index-Hygiene: modulare Sitemaps, korrektes lastmod, keine Noindex-Unfälle nach Releases

Praktischer Effekt: Selbst bei stabilem Ranking kann eine „agent-unfreundliche“ Seite an Sichtbarkeit verlieren, weil Agents Passagen nicht zuverlässig extrahieren oder Aktionen abbrechen (Timeouts, 403, kaputte Redirects). Wer dagegen maschinenlesbare Produktdaten (SKU/GTIN/MPN), konsistente Offers und klare Policy-Seiten liefert, wird häufiger als Quelle genutzt – und erhält qualifiziertere Klicks, wenn der Agent den Nutzer gezielt weiterleitet.
Wichtig: Bot-Schutz (WAF, Captcha) sollte differenzieren, sonst blockt ihr legitime Agent-Retrievals. Setzt Whitelists und Limits.

Wie wirken sich AI-Agents in AI Search aus?

In AI Search bauen Agents Antworten aus Retrieval-Chunks, Knowledge-Graph-Signalen und ggf. Partnerdaten. Sichtbarkeit entsteht daher doppelt: (1) als zitierte Quelle in der Antwort und (2) als ausführbarer „Next Step“ (z. B. Produkt vergleichen, Termin buchen, Checkout starten).

Was Agents in AI-Antworten bevorzugen:

  • prägnante, zitierfähige Absätze (Definition → Beleg → Quelle)
  • eindeutige Entitäten (Marke, Produkt, Normen) und konsistente Terminologie
  • strukturierte Daten: FAQPage/HowTo/Article sowie Product/Offer/AggregateRating
  • stabile Passage-URLs: Anker-IDs, ToC, canonicalisierte Seiten

Welche Systeme typischerweise mitspielen:

  • Suchindex + Retrieval-Layer (Top-Dokumente, Chunking, Reranking)
  • Embeddings/Vektorstore für semantische Ähnlichkeit
  • Citation-Renderer (Quellenlinks), Safety/Policy-Filter
  • Tool-Layer: Commerce-APIs, Feeds, Verfügbarkeits-Checks, Maps/Local, Payments

SEO/GEO-Implikationen

  • Messung verschiebt sich: neben CTR auch Cited-Impressions, Answer Coverage und Brand-Mentions
  • Content „chunk-first“ planen (Abschnittsgrenzen, H2/H3-Pattern, Bullet-Takeaways)
  • externe Validierung zählt: Erwähnungen in Fachmedien, Communities und Listen erleichtern Triangulation

Ergebnis: Auch ohne Klick kann eure Marke im Consideration-Set landen. Mit guten Datenendpunkten kann der Agent anschließend gezielt Traffic auf die passende Conversion-Seite schicken.
Für Shops ist „Freshness“ entscheidend: Preise/Bestände brauchen Timestamps, lastmod in Sitemaps und möglichst schnelle Updates (Feeds, Webhooks). Technische Stabilität (wenig 5xx, schnelle TTFB) erhöht die Chance, dass Retrieval überhaupt gelingt.