Die Suche verändert sich gerade grundlegend. Nicht irgendwann. Jetzt. Und wer die Signale kennt, ist vorbereitet.
Vom Suchschlitz zur Konversation – und jetzt kommt das Geld
Lange war das Spiel klar:
Google nimmt Geld für Anzeigen, organische Ergebnisse sind „verdient”, und dazwischen liegt das klassische SEA-vs-SEO-Dilemma. Dieses Modell funktioniert seit über 20 Jahren. Aber es gerät gerade unter Druck – von innen heraus.
ChatGPT (OpenAI), Perplexity AI, Microsoft Copilot, Claude (Anthropic), DeepSeek, Gemini (Google) – all diese Large Language Models, kurz LLMs, beantworten täglich Millionen von Suchanfragen. Sie recherchieren, empfehlen, erklären. Und bisher: weitgehend ohne kommerzielle Absicht.
Das ändert sich. Und wir sehen es nicht nur aus der Agenturperspektive – wir betreiben selbst eCommerce-Shops und Marktplätze, testen neue Formate auf eigenen Accounts, bevor wir sie Kunden empfehlen. Das ist kein Buzzword. Das ist der Unterschied zwischen Theorie und echter Kampagnenerfahrung.
Perplexity hat bereits Sponsored Questions eingeführt (November 2024). OpenAI experimentiert mit ChatGPT Shopping-Ergebnissen. Microsoft integriert Ads tief in Copilot. Google selbst baut AI Overviews aus und platziert Anzeigen direkt darunter – oder darin. Das ist nicht mehr Zukunft. Das ist Realität, Februar 2026.
Warum wir wissen, wovon wir reden
Viele Agenturen schreiben gerade über AI Search, LLM SEO und die Zukunft des digitalen Marketings. Der Unterschied bei uns: Wir testen das nicht nur für Kunden – wir testen es auf unseren eigenen Shops und Marktplätzen. blueshepherd betreibt selbst eCommerce, verkauft selbst Produkte, schaltet selbst Kampagnen. Was wir empfehlen, haben wir vorher an eigenem Budget, auf eigenen Produktseiten und mit eigenen Conversion-Daten durchgespielt.
Das klingt nach einem kleinen Detail. Es ist es nicht. Wer noch nie selbst einen Shop betrieben hat, denkt in Kanälen. Wer selbst verkauft, denkt in Margins, in Saisonalität, in Produktverfügbarkeit, in dem Moment, wenn der ROAS kippt und man wissen muss warum. Diese Erfahrung fließt direkt in unsere Arbeit mit Kunden ein – und genau deshalb können wir Entwicklungen wie AI-Advertising nicht nur beschreiben, sondern einschätzen, was sie im Tagesgeschäft wirklich bedeuten.
Wie AI-Werbung funktioniert – und warum sie sich von klassischer Suchmaschinenwerbung unterscheidet
Im klassischen Search Engine Advertising (SEA) bucht man Keywords. Ein Nutzer sucht „Vitamin C Serum kaufen”, das Keyword matched, die Anzeige erscheint, der Klick kostet X Euro. Einfach, messbar, skalierbar.
Bei AI-Werbung ist das Modell fundamentally anders:
Keine Keywords, sondern Kontexte. LLMs verstehen Intent – nicht nur Wörter. Eine Frage wie „Was ist das beste Vitamin-C-Serum für Kombihaut unter 30 Euro?” wird semantisch verstanden, nicht lexikalisch gematcht. Werbung kann hier nicht auf Exact Match oder Broad Match optimiert werden. Die Targeting-Logik basiert auf Entitäten, Kategorien, Nutzerprofilen und – neu – auf dem Gesprächsverlauf.
Keine klassischen Anzeigen, sondern native Empfehlungen. Wer bei Perplexity ein gesponsertes Ergebnis sieht, erkennt das an einem kleinen Label. Inhaltlich klingt es wie eine organische Antwort. Das ist kein Bug, das ist Feature. AI-Ads sind conversation-native. Sie werden in die Antwort eingebettet, nicht daneben gestellt.
Keine einmalige Impression, sondern ein Dialog. Ein klassischer Klick ist singulär. Im LLM-Kontext kann ein Nutzer fünf Folgefragen stellen, bevor er eine Kaufentscheidung trifft. Werbung kann in diesem Verlauf mehrfach präsent sein – oder eben gar nicht.
Was das für Sichtbarkeit und SEO bedeutet
Hier wird es strategisch: Wer in LLMs sichtbar sein will – ob organisch oder bezahlt – muss anders denken als im klassischen SEO.
Thematische Autorität schlägt Keyword-Dichte. LLMs bevorzugen Quellen, die ein Thema vollständig abdecken. Nicht eine Produktseite. Sondern: Glossarseite + Ratgeber + Use Cases + FAQ + spezifische Unterseiten zu Unterthemen. Wer zum Thema „AI im Marketing” nur einen Blogartikel hat, wird nicht als Autorität wahrgenommen – weder von Google noch von ChatGPT.
Entitäten, nicht nur Keywords. Suchmaschinen und Sprachmodelle denken in Entitäten: Marken, Personen, Konzepte, Produkte, Orte. „LLM SEO”, „Large Language Model Optimierung”, „KI-Suche”, „Künstliche Intelligenz und Suchmaschinenoptimierung” – das sind keine verschiedenen Keywords, das ist dieselbe Entität aus verschiedenen Perspektiven. Guter Content spricht alle diese Varianten an: Abkürzungen und ausgeschriebene Begriffe, Singular und Plural, Deutsch und Anglizismus.
Strukturierte Daten sind keine Nice-to-have. LLMs lesen maschinenlesbare Strukturen. Schema.org, FAQPage, HowTo, Article-Markup – das sind Signale, die ein Sprachmodell direkt verarbeiten kann. Wer strukturiert ist, wird häufiger zitiert.
AI-Search Optimization (ASO), Generative Engine Optimization (GEO), Answer Engine Optimization (AEO) – diese Begriffe meinen dasselbe Ziel: Sichtbarkeit in generierten Antworten statt nur in blauen Links. Das ist der neue Wettbewerb.
Drei Szenarien: Wie AI-Werbung Search verändern wird
Szenario 1 – Das Keyword-Modell in neuem Gewand.
OpenAI, Perplexity und Co. bauen gesponserte Platzierungen in generierte Antworten ein – mit eigenem Labeling, eigenem Bidding, eigenen Reportings. Klingt vertraut. Ist es auch. Wer schon mal eine Display-Kampagne auf Google aufgesetzt hat, kennt das Grundprinzip: Kontext-Targeting statt reines Keyword-Matching. Nur dass hier der Kontext nicht eine Webseite ist, sondern ein laufendes Gespräch. Für erfahrene Campaign Manager ist das keine Revolution, sondern eine neue Oberfläche mit neuen Regeln – ähnlich wie damals der Wechsel von manuellen Placements zu Programmatic Guaranteed. Die Logik ist dieselbe, die Variablen sind andere.
Das Risiko: Wer glaubt, er kann 1:1 seine bestehenden Google Ads-Strukturen in LLM-Plattformen überführen, wird enttäuscht. Die Granularität von Exact Match gibt es hier nicht. Und Quality Score funktioniert anders, wenn das „Ad” Teil einer Antwort ist.
Szenario 2 – Native Integration: Das ist kein SEA, das ist Sponsoring.
Das interessantere und in meinen Augen realistischere Modell kennt jede Branche – nur nicht Search: Native Advertising. Beim Podcast-Sponsoring zahlt die Marke dafür, dass der Host sie glaubwürdig empfiehlt. In Print bezahlt man für redaktionell gestaltete Anzeigen, die wie Artikel aussehen. Im Out-of-Home-Bereich kauft man kontextuelle Platzierung – Fitnessstudio-Umgebung für Proteinriegel, nicht Autobahn.
Bei LLMs läuft das genauso. Perplexity testet (November 2024) gesponserte Queries, bei denen Marken als bevorzugte Quelle in einer generierten Antwort erscheinen – nicht als klassische Anzeige, sondern als Teil der Antwortstruktur. Das Modell ähnelt einem Content-Partnership mehr als einem Keyword-Bid. Und genau hier liegt die Chance: Wer thematisch stark aufgestellt ist – durch echten Inhalt, nicht durch Ad-Budget – wird in diesem Umfeld günstiger sichtbar sein als jemand, der Content als lästige Pflicht behandelt.
Für SEA- und SEO-Profis bedeutet das konkret: Die Grenze zwischen Paid und Earned verschwimmt weiter. Wir kennen das aus Social – organische Reichweite sinkt, Paid gewinnt, aber wer organisch stark ist, zahlt weniger für Paid. Dieselbe Dynamik kommt in LLM-Umgebungen.
Szenario 3 – Intent-Daten auf einem neuen Level.
Das ist das Szenario, das die Programmatic-Welt aufhorchen lassen sollte. Im klassischen Programmatic Advertising kauft man Zielgruppen auf Basis von Cookies, Third-Party-Daten, Lookalikes – alles Proxies für echten Intent. Man versucht zu erraten, ob jemand kaufbereit ist, weil er drei Wochen lang Produktseiten angeschaut hat.
Ein LLM weiß es. Wer ChatGPT fragt „Welches koreanische Serum hilft bei Hyperpigmentierung und ist unter 40 Euro?” – so wie es täglich tausende K-Beauty-Fans tun, die bei Shops wie Happy & Pretty stöbern – hat seinen Kaufprozess gerade live übertragen. Hauttyp, Preissensitivität, Produktkategorie, Kaufbereitschaft: alles in einem Satz. Dieses Signal ist präziser als alles, was DMP und DSP zusammen je geliefert haben. Für Advertiser ist das Gold – für Datenschützer ein Albtraum. Die DSGVO wird hier zur echten Bremse, nicht nur zur Compliance-Übung. Aber langfristig wird sich ein Modell durchsetzen, ähnlich wie sich Contextual Targeting nach dem Cookie-Ende als Alternative etabliert hat: sauber, regelkonform, trotzdem effektiv.
Was das im Tagesgeschäft bedeutet – für alle, die Kampagnen planen und umsetzen
Ich arbeite täglich mit SEA- und SEO-Kunden. Und ich sage ehrlich: Die größte Veränderung im Arbeitsalltag ist nicht das Tooling, sondern das Briefing.
Bisher war der Prozess klar: Keyword-Recherche, Anzeigentext, Bid-Strategie, Landing Page. Das wird nicht verschwinden – aber es reicht nicht mehr allein. Wer heute eine neue Produktkategorie launcht und ausschließlich auf Google Ads setzt, baut auf einem Fundament, das schmaler wird. AI Overviews fressen Click-Share. Perplexity und ChatGPT beantworten Recherche-Fragen, bevor der Nutzer überhaupt bei Google landet. Das bedeutet: Wer nur den letzten Klick optimiert, verliert den Einfluss auf die ersten fünf Touchpoints im Entscheidungsprozess.
Konkret ändert sich für uns die Arbeit in drei Bereichen: Erstens müssen Content-Strategie und Paid Media früher zusammengedacht werden – nicht mehr getrennte Silos. Zweitens brauchen wir neue Metriken. Share of Voice in LLM-Antworten ist keine exotische KPI mehr, sondern eine, die in Kundenmeetings auftaucht. Und drittens: Wer Kampagnen in LLM-Umgebungen bucht, muss verstehen, wie das Modell antwortet – nicht nur, wie das Bidding-System funktioniert. Das ist neu. Und das ist der Skill-Gap, den wir gerade sehen.
Die Frage ist nicht, ob AI-Plattformen Werbung schalten werden. Die tun es bereits. Die Frage ist, ob man vorbereitet ist, wenn das Volumen skaliert.
Für uns als Team bedeutet das: Bei jedem neuen Kunden-Onboarding schauen wir jetzt nicht nur auf Google Search Console und Google Ads – wir schauen auch, ob die Marke in LLM-Antworten auftaucht, wie sie beschrieben wird und welche Inhalte zitiert werden. Das ist kein Zusatz-Service, das ist Teil der Grunddiagnose. Wer dort nicht sichtbar ist, hat eine Lücke – egal wie gut seine CPC-Struktur ist.
