Agenten für Anwälte, Werbung und Gedächtnis: Was der 13. Mai 2026 über die neue KI-Wirtschaft verrät

13. Mai 2026: MCP-Server schießen in alle Branchen hinein, Anthropic greift den Rechtsmarkt mit voller Kraft an, ein neuer Benchmark stellt die Frage, ob KI-Agenten wirklich erinnern — und Anduril verdoppelt seine Bewertung auf 61 Milliarden Dollar. Im Hintergrund tickt die Uhr eines Gerichtsverfahrens, das entscheiden könnte, wie die KI-Geschichte geschrieben wird.

MCP wird zur Universalschnittstelle — auch für Werbung und HR

Das Model Context Protocol war lange ein technisches Detail, das vor allem Entwickler beschäftigte. Seit dem 13. Mai ist es auch in Chefetagen von Marketingabteilungen und HR-Teams angekommen. TikTok öffnete auf seinem Werbegipfel TikTok World seinen Ads-MCP-Server für externe KI-Agenten — und ermöglicht damit, dass Werbekampagnen vollständig ohne menschliche Eingriffe geplant, gestartet und optimiert werden können. Gebote setzen, Budgets verschieben, Creatives hochladen: alles per Agent.

Parallel dazu hat das Recruiting-SaaS-Unternehmen Workable seinen MCP-Server für die allgemeine Verfügbarkeit freigegeben — mit 38 Tools, die KI-Assistenten direkten Lese- und Schreibzugriff auf Jobs, Kandidaten, Angebote und Kalender geben. Beide Ankündigungen zeigen: MCP ist nicht mehr das Protokoll einer einzigen Plattform. Es ist die Universalschnittstelle, über die Agenten in bestehende Systeme eingreifen — in Marketingbudgets genauso wie in Bewerbungsprozesse.

Was dabei häufig untergeht: Mit dem Schreibzugriff wächst auch das Risiko. Ein kompromittierter oder fehlerhaft konfigurierter Agent kann Budgets leeren oder Kandidatendaten manipulieren — ohne dass ein Mensch im Loop ist. Die technische Eleganz von MCP und die Governance-Anforderungen, die damit einhergehen, wachsen in gleichem Tempo.

Anthropic greift den Rechtsmarkt an — mit voller Kraft

Was Anthropic am 12. und 13. Mai im Legal-Bereich ankündigte, ist die bislang umfangreichste vertikale Marktoffensive eines Foundation-Modell-Anbieters: mehr als 20 neue MCP-Konnektoren für Legal-Tech-Plattformen — darunter Thomson Reuters Westlaw, Harvey, Ironclad, DocuSign und das Free Law Project — sowie 12 praxisorientierte Practice-Area-Plugins für Rechtsgebiete von M&A-Diligence bis AI Governance Legal.

Die Westlaw-Integration ist dabei besonders strategisch. Thomson Reuters betreibt die meistgenutzte juristische Recherchedatenbank der Welt, und die Anbindung an Claude macht diese Datenbank für den ersten Mal direkt durch einen Agenten abfragbar — ohne Umweg über eine Weboberfläche. Das positioniert Anthropic direkt im Wettbewerb mit spezialisierten Legal-AI-Startups wie Harvey und Legora, die genau diesen Workflow bisher dominierten.

Die Botschaft an den Rechtsmarkt ist klar: Foundation-Modell-Anbieter kommen direkt in vertikale Märkte — nicht mehr nur über APIs, sondern mit fertigen Workflows, Practice-Plugins und Direktintegrationen. Kanzleien und Rechtsabteilungen, die noch auf einen klaren Marktführer warten, müssen nun zwischen einem spezialisierten Anbieter und einem Generalisten mit enormem Ökosystem abwägen.

Erinnert sich der Agent noch? LongMemEval-V2 stellt die Gretchenfrage

Während MCP-Server die Breite der Agentic Economy zeigen, beschäftigt sich die Forschungsgemeinschaft mit einer fundamentalen Frage: Können Agenten überhaupt zuverlässig erinnern? Das am 13. Mai auf arXiv erschienene Paper LongMemEval-V2 liefert den bisher rigorosesten Benchmark für Langzeit-Agentengedächtnis — mit erheblich längeren Gesprächshistorien als bisherige Tests und erstmals multimodaler Evaluation.

Der Report „State of AI Agent Memory 2026“ von mem0.ai ergänzt dieses Bild: Die klassische RAG-Architektur — Retrieve, Augment, Generate — wird für agentic Workloads zunehmend durch hierarchische Memory-Systeme ersetzt, die drei parallele Scoring-Pässe kombinieren: semantische Ähnlichkeit, Keyword-Matching und Entity-Matching. Das Ergebnis übertrifft jeden Einzelansatz und reduziert den Token-Verbrauch pro Retrieval-Call auf circa 6.956 Tokens.

Für Enterprise-Teams hat das konkrete Konsequenzen: Ein Agent, der sich nicht zuverlässig an Kundenpräferenzen, frühere Entscheidungen oder laufende Prozesse erinnert, ist kein verlässlicher Mitarbeiter. Drei offene Herausforderungen bleiben: Wie misst man Gedächtnisqualität zuverlässig? Wie koordinieren mehrere Agenten denselben Memory-Store? Und wer darf Inhalte im Gedächtnis eines Agenten löschen — aus Datenschutzgründen oder bei einem Jobwechsel?

Musk v. Altman: Die Trophäe, die keine sein durfte

Tag 11 des Verfahrens Musk v. Altman am Bundesgericht in Oakland war der emotionalste Prozesstag seit Wochen — wegen einer goldenen Miniatur-Esel-Trophäe mit der Inschrift „Never stop being a jackass for safety“. OpenAIs Chief Futurist Joshua Achiam beschrieb, wie Dario Amodei und David Luan ihm die Trophäe 2018 schenkten — als Dank dafür, dass er Musk auf einer Betriebsversammlung widersprach. Musk hatte erklärt, er wolle OpenAI verlassen und ein eigenes Labor so schnell wie möglich aufbauen. Achiam nannte das „unsafe and reckless“. Musk nannte ihn einen „jackass“.

Richterin Gonzalez Rogers ließ die Trophäe nicht als Beweismittel zu. Aber sie ist längst symbolischer Beweis für etwas anderes: wie tief die Sicherheitskultur von 2018 und die kommerzielle Dynamik von 2026 auseinanderdriften. Sam Altmans Kernaussage — „Ich habe keine Wohltätigkeitsorganisation gestohlen. Musk hat eine im Stich gelassen“ — ist die kompakteste Zusammenfassung eines komplexen Rechtsstreits.

Praktisch relevant für Enterprise-Teams war indes ein anderes Zeugnis: Microsofts interne Kommunikation zeigt, dass Satya Nadella die vollständige Abhängigkeit von OpenAI als strategisches Risiko identifiziert hatte — und sich fragte, ob Microsoft bei einer OpenAI-Krise auf eigene Frontier-Modelle zurückgreifen könnte. Eine Frage, die jedes Unternehmen, das tief in einen einzigen KI-Anbieter investiert hat, für sich selbst beantworten sollte. Die Jury erhält ihre Instruktionen heute (14. Mai); Beratungen beginnen am Montag, 18. Mai.

Anduril und Anthropic: Zwei Bewertungssprünge, eine Botschaft

Der 13. Mai lieferte gleich zwei spektakuläre Finanzierungsnachrichten, die zusammen ein Bild zeichnen: KI-Kapital konzentriert sich auf wenige Schlüsselspieler mit extremer Geschwindigkeit. Anduril schloss eine Series-H-Runde über 5 Milliarden US-Dollar bei einer Bewertung von 61 Milliarden ab — eine Verdoppelung binnen weniger als einem Jahr. Das Defense-Tech-Unternehmen hat seinen Umsatz 2025 auf 2,2 Milliarden Dollar verdoppelt und baut nun ein autonomes Kriegsschiff-Programm in Seattle auf. Thrive Capital und Andreessen Horowitz führen die Runde an.

Parallel dazu berichtete Bloomberg, dass Anthropic in Gesprächen über eine Finanzierungsrunde von mindestens 30 Milliarden Dollar bei einer Bewertung von über 900 Milliarden ist — was Anthropic zum wertvollsten privaten KI-Unternehmen der Welt machen würde und OpenAIs 852-Milliarden-Bewertung übertreffen würde. Seit März 2025 wuchs Anthropics Bewertung von 61,5 Milliarden auf potenziell 900+ Milliarden — in 14 Monaten. Erste IPO-Gespräche mit Goldman Sachs, JPMorgan und Morgan Stanley deuten auf einen möglichen Börsengang im Oktober 2026 hin.

Beide Nachrichten zusammen illustrieren die Spaltung des KI-Kapitalmarkts: Auf der einen Seite Foundation-Modell-Anbieter mit exponentiell wachsenden Umsätzen und Bewertungen jenseits rationaler Metriken. Auf der anderen Seite Defense-Tech-Startups, die KI als Betriebssystem für autonome Systeme einsetzen und damit klassische Rüstungskonzerne herausfordern.

Stimmen aus der Community: Wer darf über KI-Jobs sprechen?

Der dominant Diskursstrang auf X/Twitter am 13. Mai war nicht die Anduril-Runde oder die Legal-Offensive von Anthropic — es war der anhaltende Streit zwischen Yann LeCun und Dario Amodei über Jobmarkt-Prognosen. LeCun, früherer Meta-Chief-AI-Scientist, bezeichnete Amodeis Vorhersage, KI werde innerhalb von fünf Jahren 50 Prozent der Bürojobs vernichten, als „ridiculously stupid“ — und forderte: „Don’t listen to AI CEOs. They have a vested interest in propping up the power of the products they sell.“

Die Community spaltete sich: Praktiker, die täglich mit KI-Automatisierung arbeiten, widersprachen mit konkreten Erfahrungen. Ökonomen und Sozialwissenschaftler stärkten LeCuns Position. Nobelpreisträger Daron Acemoglu fragte öffentlich, ob bei Amodeis Prognosen „motivated reasoning“ durch Kapitalaufnahme-Interessen eine Rolle spiele. NVIDIA-CEO Jensen Huang hatte zuvor erklärt, er widerspreche Amodei in fast allem, was dieser zum Thema Jobs gesagt habe — ein seltener öffentlicher Dissens zwischen Industrie-Schwergewichten.

Der zweite heiße Diskursstrang war natürlich die Jackass-Trophäe. Der Musk-Altman-Prozess generierte auch an Tag 11 die meisten Impressions im KI-Diskurs — ein Zeichen dafür, wie sehr der Fall als Projektion tieferer Fragen über Sicherheitskultur, kommerzielle Interessen und institutionellen Wandel wahrgenommen wird. Sentiment des Tages: kontrovers und laut, auf beiden Fronten.

Fazit: Die agentic Economy ist real — und ungeklärt

Was der 13. Mai zeigt, ist keine abstrakte Zukunft, sondern eine sehr konkrete Gegenwart: Agenten verwalten Werbebudgets, screenen Kandidaten, recherchieren Rechtsfragen und tätigen Zahlungen. Das MCP-Protokoll ist die unsichtbare Infrastruktur darunter — und wächst schneller, als Governance-Strukturen entstehen können.

Gleichzeitig zeigt der Tag, dass die großen ungeklärten Fragen nicht technischer Natur sind. Wer haftet, wenn ein Agent fehlerhaft handelt? Wer kontrolliert das Gedächtnis eines Agenten? Wer darf über die gesellschaftlichen Folgen von KI sprechen — und mit welchem Mandat? Diese Fragen werden nicht im Labor beantwortet. Sie werden in Gerichtssälen, Parlamenten und LinkedIn-Kommentarspalten verhandelt.

Für Unternehmen bedeutet das: Die Geschwindigkeit der technischen Entwicklung ist kein Argument, Governance zu vertagen. Sie ist das stärkste Argument dafür, jetzt damit anzufangen.

AIBIX Beratung · Gerd Feiner · aibix.de