Das Model Context Protocol (MCP) markiert einen Wendepunkt: Es verlagert die Sichtbarkeit von Marken aus der Welt gecrawlter Websites in ein neues Ökosystem aus strukturierten, direkt angebundenen Datenquellen. Was heute noch als technisches Detail wahrgenommen wird, ist ein radikaler Paradigmenwechsel: weg vom statischen Web, hin zu maschinell nutzbaren Wissensräumen. Man könnte provokativ sagen: Die Website ist tot, zumindest für die wichtiger werdenden KI-Modelle. Für Marken bedeutet das: Sichtbarkeit entsteht künftig nicht mehr dort, wo sie Webseiten gestalten, sondern dort, wo sie Maschinen präzise mit Fakten versorgen. Ein Fachbeitrag von Armin Doll, Director Solutions Engineering EMEA
Das Fundament dieses Wandels ist simpel: Statt dass Large Language Models Websites crawlen, lesen und interpretieren müssen, greifen sie über MCP direkt auf geprüfte, markeneigene Datenbanken und APIs zu. Damit entfällt ein Großteil der Unsicherheiten klassischer KI‑Antworten: Halluzinationen sinken, Aktualität steigt, und die Kontrolle verschiebt sich zurück zu den Unternehmen selbst.
Technisch bedeutet MCP zweierlei:
Verlagerung der Rechenlogik ans Modell – Agenten entscheiden autonom, wann welche Datenquelle anzuzapfen ist.
Strikte Datenorientierung – Nur wer strukturierte, protokollkonforme Daten liefert, bleibt in KI‑basierten Interfaces sichtbar.
Damit wird MCP zur Voraussetzung, um überhaupt im Ökosystem zukünftiger Assistenten, Agenten und multimodaler Suchsysteme aufzutauchen. Während APIs bisher proprietär, fragmentiert und schwer skalierbar waren, etabliert MCP einen offenen, standardisierten Access Layer – ein HTML für Maschinen. Studien – etwa von Yext – zeigen schon heute: KI stützt sich vor allem auf Inhalte, die Marken selbst bereitstellen. Mit MCP nimmt dieser Effekt weiter zu.
Direkter Zugriff statt heuristische Interpretation
Das zentrale Versprechen von MCP ist der Übergang von Websuche zu Datennutzung. KI‑Systeme können über standardisierte Protokolle direkt auf strukturierte Unternehmensquellen zugreifen und dort präzise Informationen anfragen. Damit entfällt, Inhalte über semantische Näherung oder statistische Muster aus Webseiten abzuleiten – ein Prozess, der zwar leistungsfähig, aber fehleranfällig bleibt. Genau hier setzt MCP an: Es schafft einen Mechanismus, der maschinelle Präzision ermöglicht, indem er Ambiguität eliminiert. Die KI fragt nicht mehr: „Welche Daten könnte diese Seite enthalten?“, sondern: „Welches Feld in diesem Graph beantwortet meine Frage?“.
Unternehmen werden so zu aktiven Teilnehmern des KI‑Ökosystems. Sie gestalten nicht nur Inhalte, sondern definieren Datenmodelle, Beziehungen, Eigenschaften und Zugriffsregeln. Damit wächst ihre Verantwortung: Wer maschinenlesbar sein will, muss Daten nicht nur bereitstellen, sondern auch pflegen, versionieren und validieren. Dieser Aufwand erklärt, warum MCP nicht bloß eine technische Neuerung, sondern ein Governance‑Thema ist. Die Unternehmen, die diese Verantwortung früh übernehmen, schaffen eine Grundlage, die KI‑Systeme als „vertrauenswürdige Quelle“ interpretieren – ein Vorteil, der sich im Marketing künftig direkt auszahlt.
Hybride Customer Journeys und neue Rollenverteilung
Der Diskurs um den „Tod der Website“ ist zugespitzt, aber er verweist auf eine reale Verschiebung. Die Website wird nicht verschwinden, ändert aber ihre Bedeutung: Sie verliert ihren Vorrang als erste Anlaufstelle digitaler Interaktionen, bleibt aber visuelle und erklärende Schnittstelle für Menschen. Menschen werden weiterhin grafische Interfaces nutzen, während KI‑Agenten im Hintergrund in Datenräumen operieren. In vielen Branchen wird die maschinelle Interaktion zur dominanten Form – insbesondere dort, wo standardisierte, repetitive oder zeitkritische Journeys ablaufen.
Ein wesentlicher Treiber ist die zunehmende Automatisierung alltäglicher Prozesse. Shopping, Mobilität, Terminfindung, einfache Versicherungsprodukte – all diese Bereiche zeichnen sich durch Entscheidungen aus, die auf klaren Parametern beruhen. Dafür sind Websites perspektivisch nicht mehr zwingend erforderlich. Persönliche Assistenten können Informationen abfragen, Entscheidungen vorbereiten und handeln, ohne dass Nutzer überhaupt eine Seite besuchen.
Der Nutzen solcher agentischen Systeme ist zu groß, als dass Nutzer darauf verzichten würden. Gleichzeitig bleiben beratungsintensive, komplexe oder emotionale Entscheidungen weiterhin an menschliche Interfaces gebunden. Die Website entwickelt sich somit vom Standard- zum wird damit zum Spezialwerkeug, bei dem es vor allem um die emotionale Bindung menschlicher Entscheider geht und Vertrauen in die Marke gestärkt werden soll.
Wie Memory‑Funktionen die Erwartungshaltung neu definieren
Hyperpersonalisierung wird in einer Welt persönlicher Agenten zum Standard. KI‑Systeme speichern langfristig individuelle Vorlieben und reagieren situativ darauf. So plant ein persönlicher Assistent Reisen nicht mehr Schritt für Schritt, sondern bucht Flüge, Bahnverbindungen und Hotels eigenständig – abgestimmt auf bevorzugte Airlines, Loyalitätsprogramme oder bestimmte Zimmerkategorien. Diese Abläufe wirken heute noch futuristisch, entsprechen aber genau dem, was moderne Memory‑Funktionen bereits ermöglichen und künftig weiter ausbauen werden.
Der entscheidende Schritt liegt in der Integration. MCP verbindet nicht nur Dienste, es verbindet Entscheidungsräume. Ein Agent muss nicht nur wissen, welche Hotels verfügbar sind, sondern auch, welche davon zum persönlichen Profil passen, welche zeitlichen Konflikte bestehen und welche Transportoptionen sinnvoll sind. Um all das zu orchestrieren setzt voraus, dass Dienste maschinenlesbar, einheitlich strukturiert und zuverlässig ansprechbar sind. Branchen wie Mobilität und Hospitality profitieren früh, weil ihre Prozesse standardisierbar und zeitkritisch sind.
KI weiß mehr als klassische Tracking‑Systeme
Einer der sensibelsten Punkte im Wandel zu agentischen Systemen ist der Datenschutz. KI‑gestützte Dienste benötigen mehr Kontext als Cookies je erfasst haben: Verhaltensmuster, Routen, Präferenzen, situative Faktoren, persönliche Prioritäten. Diese Tiefe erweitert nicht nur den Funktionsumfang, sondern auch die Angriffsfläche. Nutzer unterschätzen oft die Tragweite der Datenfreigabe – ein Problem, das wir aus Social‑Media‑Ökosystemen kennen. Gleichzeitig akzeptieren viele Menschen KI‑gestützte Dienste als Service, während sie klassisches Web‑Tracking eher skeptisch betrachten. Das Paradox entsteht durch unterschiedliche Wahrnehmung: Was als Komfort erlebt wird, wird selten als Risiko verstanden.
Unternehmen wie Yext begegnen dieser Herausforderung unter anderem mit klaren technischen und organisatorischen Maßnahmen: europäische Endpunkte für KI‑Funktionen, Hosting auf EU‑Servern, Verarbeitung überwiegend öffentlicher Informationen und transparente Steuerungsmöglichkeiten für Memory‑Funktionen. Diese Maßnahmen reduzieren die Komplexität und stärken das Vertrauen. Denn Datenschutz ist nicht nur rechtlich messbar, sondern emotional umkämpft. Transparenz darüber, welche Daten wie genutzt werden, entscheidet darüber, ob Nutzer persönliche Agenten als Unterstützung oder als Eingriff wahrnehmen.
Content‑as‑Entities:
Der Knowledge Graph als Fundament der Sichtbarkeit
Die Zukunft des Web‑Contents liegt nicht in Seiten, sondern in Entitäten. Produkte, Standorte, Personen, Zertifikate, Bewertungen – all diese Einheiten bilden das semantische Fundament, auf dem KI‑Antworten künftig basieren. Knowledge Graphs werden damit zur zentralen Schaltstelle, aus der Websites, Suchmaschinen, KI‑Dialoge und agentische Systeme gleichermaßen gespeist werden. Unternehmen, die ihre Inhalte entitätsbasiert modellieren, schaffen nicht nur eine konsistente Basis über alle Kanäle hinweg, sondern stellen sicher, dass KI‑Systeme präzise, kontextuelle Antworten liefern können.
Die Anforderungen an E‑E‑A‑T bleiben bestehen, verschieben sich jedoch auf die Ebene der Fakten. Expertise, Erfahrung und Vertrauen müssen künftig pro Entität nachweisbar sein. Bewertungen, Autorenprofile, Zertifikate, Referenzen – all diese Datenpunkte bestimmen, wie Maschinen Autorität interpretieren. Der Knowledge Graph ist damit keine technische Option, sondern ein strategisches Fundament. Wer ihn früh aufbaut, wird in konversationalen und agentischen Systemen sichtbarer sein als Wettbewerber, deren Inhalte weiterhin dokumentenorientiert strukturiert sind.
Sichtbarkeit über Qualität, Struktur und Anschlussfähigkeit
Die künftige Sichtbarkeit von Marken wird von neuen Gatekeepern bestimmt: den Plattformen, die KI‑Modelle trainieren, betreiben und orchestrieren. Diese Plattformen entscheiden, explizit oder implizit, welche Datenquellen ein Agent nutzt, welche bevorzugt behandelt werden und welche als vertrauenswürdig gelten. Damit entsteht ein Ökosystem, in dem technische Anschlussfähigkeit über kommerziellen Erfolg entscheidet.
Marken müssen sich auf eine Zukunft vorbereiten, in der sie nicht nur um die Aufmerksamkeit von Menschen konkurrieren, sondern um die Präferenzen der Agenten, die Entscheidungen für diese Menschen treffen. Je stärker sich KI‑Systeme als erste Interaktionsschicht etablieren, desto essenzieller wird die Frage, ob eine Marke in den Wissensmodellen dieser Systeme korrekt, vollständig und vertrauenswürdig repräsentiert ist. MCP könnte so das Eintrittstor in dieses Ökosystem werden, Knowledge Graphs sein Fundament bilden.
Die Zukunft gehört den Marken, die maschinenlesbar denken
Sichtbarkeit entsteht künftig dort, wo Daten konsistent, strukturiert und protokollkonform bereitstehen. Markenpräsenz wird damit zur infrastrukturellen Aufgabe – eine, die sich nicht durch Content‑Marketing, sondern durch Datenqualität und maschinelle Anschlussfähigkeit entscheidet. Wer heute damit beginnt, seine Inhalte in Knowledge‑Graph‑Strukturen zu überführen und MCP‑konforme Schnittstellen aufzubauen, schafft die Grundlage dafür, auch in einer Welt persönlicher Agenten präsent und relevant zu bleiben.

Über den Autor: Armin Doll ist Director Solutions Engineering EMEA beim Suchtechnologie-Anbieter Yext. In dieser Rolle berät er Unternehmen dabei, ihre digitalen Informationen – von Standortdaten bis Inhalts-Assets – für Suchmaschinen und KI-Systeme aufzubereiten. Zuvor war der studierte Informatiker mehrere Jahre als Senior Solutions Consultant tätig. Er beschäftigt sich seit über einem Jahrzehnt mit lokalen Suchstrategien, strukturierten Daten und der digitalen Sichtbarkeit von Marken.








