Zwei Konferenzen, ein historischer Compute-Deal, ein offenes Netzwerkprotokoll und eine Zeugenaussage, die das Silicon Valley erschüttert: Der 6. Mai 2026 war kein gewöhnlicher Mittwoch im KI-Kalender.
Anthropic zeigt Kante — und unterschreibt bei Elon Musk
San Francisco, Moscone-Nähe, 9 Uhr morgens: Anthropics erste große Entwicklerkonferenz Code w/ Claude 2026 öffnet ihre Türen. Auf der Bühne: Chief Product Officer Ami Vora, Head of Claude Code Boris Cherny — und eine Meldung, die sofort für Gesprächsstoff sorgt. Anthropic hat einen Compute-Deal mit SpaceX abgeschlossen und sichert sich damit Zugang zu den gesamten Kapazitäten des Colossus-1-Rechenzentrums in Memphis: über 300 Megawatt, mehr als 220.000 NVIDIA-GPUs, darunter die neuesten GB200-Beschleuniger.
Das direkte Ergebnis für Entwickler: Die Fünf-Stunden-Rate-Limits für Claude Code werden ab sofort für alle Pro-, Max-, Team- und Enterprise-Kunden verdoppelt. Peak-Hour-Beschränkungen für Pro und Max entfallen komplett. Wer Claude Code täglich als Produktivitätswerkzeug nutzt, merkt das unmittelbar. Anthropic begründet den Schritt schlicht mit der gestiegenen Nachfrage: Die API verzeichnet laut CPO Vora ein Wachstum von 17× gegenüber dem Vorjahr.
Was viele auf X sofort bemerkten: SpaceX gehört bekanntlich Elon Musk — und Musks Klage gegen OpenAI läuft gerade in Woche 2. Die KI-Industrie ist tatsächlich eine kleine Stadt.
Claude lernt im Schlaf: Die „Dreaming“-Funktion
Neben dem Compute-Deal brachte Code w/ Claude drei neue Features für Claude Managed Agents: Multi-Agent-Orchestrierung (Public Beta) erlaubt Agenten-Flotten für komplexe Parallelaufgaben. Das Outcomes-Feature (Public Beta) ermöglicht es, Erfolgskriterien zu definieren, gegen die Claude iterativ arbeitet.
Am faszinierendsten ist jedoch Dreaming (Research Preview): Claude analysiert über Nacht seine früheren Arbeitssessions, identifiziert Lücken und legt neue Memories an — zum Beispiel ein descent-playbook.md für eine Mondlandungs-Demo. Was wie Science Fiction klingt, ist ein echter Self-Improving-Loop auf Produktionslevel. Zusammen mit neuen Claude Code Routines — asynchronen Automationen, nach denen man fertige Pull Requests vorfindet — verschiebt sich die Arbeitsweise von Entwicklern grundlegend. Mercado Libre, mit 23.000 Ingenieuren einer der größten Softwarebetriebe der Welt, strebt bis Q3 2026 eine autonome Coding-Quote von 90 % an.
Atlassian öffnet seinen Datengraph — für alle KI-Agenten
Parallel in Anaheim: Atlassians Team ’26-Konferenz (5.–7. Mai) brachte eine strategisch bedeutsame Öffnung. Der Atlassian Teamwork Graph — das interne Wissensnetz, das Jira-Tickets, Confluence-Seiten, Kalendereinträge und Teamkommunikation verknüpft — wird ab sofort für Drittanbieter-KI-Agenten via MCP zugänglich gemacht.
Die neuen Rovo MCP-Tools (Public Beta) versprechen 44 % genauere Graph-Suchergebnisse und bis zu 48 % niedrigere Token-Kosten — ein erheblicher Unterschied bei Enterprise-Deployments. Rovo Studio, die No-Code-Umgebung für Agenten- und Automatisierungserstellung, ist ab sofort Generally Available. Agents in Jira können Work Items zugewiesen bekommen, mit vollständigem Audit-Logging. Die Botschaft ist klar: Atlassian positioniert den Teamwork Graph als universelle Kontextschicht für alle KI-Agenten im Unternehmen — nicht nur für Rovo.
OpenAI standardisiert das KI-Netzwerk: MRC geht Open Source
Während in San Francisco und Anaheim über KI-Agenten diskutiert wurde, löste OpenAI ein grundsätzlicheres Problem: Netzwerküberlastung bei massiven GPU-Clustern. Das am 6. Mai vorgestellte Multipath Reliable Connection (MRC)-Protokoll verteilt einzelne Datenübertragungen auf hunderte parallele Netzwerkpfade und routet um Ausfälle in Mikrosekunden herum — ein kritischer Fortschritt für GB200-Supercomputer mit Zehntausenden von GPUs.
Bemerkenswert: AMD, Broadcom, Intel, Microsoft und NVIDIA sind alle mit an Bord. Das Protokoll wird über das Open Compute Project (OCP) der gesamten Industrie zur Verfügung gestellt — ein seltenes Beispiel echter Kooperation zwischen Wettbewerbern in einem hochkompetitiven Markt. MRC ist bereits im gesamten OpenAI-Produktionsbetrieb ausgerollt, darunter die GB200-Cluster bei Oracle Cloud in Abilene und Microsofts Fairwater-Supercomputer.
NVIDIA & Corning: Die stille Lieferkette des KI-Booms
Weniger spektakulär, aber strategisch bedeutsam: NVIDIA und Corning Incorporated haben eine mehrjährige Partnerschaft angekündigt. Corning wird seine US-Fertigungskapazitäten für optische Konnektivität um den Faktor 10× ausbauen, die US-Glasfaserproduktion um mehr als 50 % erhöhen und drei neue Hochleistungsanlagen in North Carolina und Texas errichten — 3.000 neue Arbeitsplätze inklusive.
Die Hintergründe: 800-Gb/s-Netzwerkverbindungen zwischen GPU-Racks erfordern optische Komponenten in Mengen, die die bisherige Lieferkette schlicht überfordern. Corning ist in dieser Gleichung der stille Gewinner des KI-Booms — ein Unternehmen, das von jedem neuen NVIDIA-Rechenzentrum profitiert, ohne selbst im KI-Rampenlicht zu stehen.
Mira Murati sagt: Altman schürte Chaos
In Oakland, Bundesgericht: Der sechste Verhandlungstag im Prozess Musk v. Altman brachte eine besonders gewichtige Zeugenaussage. Mira Murati, frühere CTO von OpenAI und für kurze Zeit interimistische CEO nach dem Board-Rauswurf Altmans 2023, sagte in einer aufgezeichneten Aussage, Altman habe Chaos unter den Top-Führungskräften gesät. Er sage einer Person das eine und der nächsten das genaue Gegenteil — gelegentlich täuschend ihr und anderen gegenüber.
Die Aussage untermauert Musks Kernthese einer dysfunktionalen internen Führung. Dennoch: Eine CNBC-Analyse zeigt Musks Gewinnchancen konsistent unter 25 %. Juristen bewerten die Hauptklage — Altman habe Musk über die Non-Profit-Struktur getäuscht — als schwer beweisbar ohne direktere Dokumente. Was der Prozess liefert, sind erstmals gerichtlich verwertbare Einblicke in die innere Governance von OpenAI in seinen Gründungsjahren.
Europa investiert: LiveEO bringt KI in den Orbit
Aus Berlin: Das Startup LiveEO hat den ersten Closing einer Runde über mehr als €28 Millionen abgeschlossen. LiveEO überwacht mit KI und Satelliten über eine Million Meilen kritischer Infrastruktur — Stromnetze, Pipelines, Bahntrassen — auf fünf Kontinenten. Neu dabei als Investoren: das verteidigungsorientierte VC Helantic und der European Innovation Council (EIC). Das Signal: Zivile KI-Infrastruktur und Verteidigung wachsen zusammen. Das Kapital geht in die Expansion in den Dual-Use-Markt und in Twinspector, LiveEOs eigenes EO-Satelliten-Cluster mit 35-cm-Auflösung und geplantem Launch ab 2028.
Stimmen aus der Community: Wenn Vibe Coding und Agentic Engineering sich annähern
Der Diskurs auf X/Twitter war am 6. Mai ungewöhnlich vielschichtig. Simon Willison veröffentlichte ein nachdenkliches Essay — „Vibe coding and agentic engineering are getting closer than I’d like“ — und traf damit einen Nerv in der Developer-Community. Kern der Erkenntnis: Selbst erfahrene Ingenieure wie Willison, die sich klar von unverantwortlichem Vibe-Coding abgrenzen wollten, reviewen im Produktionsbetrieb inzwischen nicht mehr jede Zeile, die Claude Code schreibt. Die Grenze ist verschwimmt. Willisons Metapher — Claude Code wie ein fremdes Engineering-Team behandeln, dem man ohne Code-Review vertraut — erzeugte sowohl Zustimmung als auch Bedenken aus dem Sicherheitsbereich.
Parallel gab es kollektive Ironie über den Anthropic-SpaceX-Deal: Musk klagt gegen OpenAI und vermietet gleichzeitig Colossus-Kapazitäten an Anthropic. Entwickler feierten die verdoppelten Limits pragmatisch — Screenshot-Vergleiche „vorher/nachher“ kursierten innerhalb von Minuten nach der Ankündigung. Der Engadget-Artikel verzeichnete über 800 Shares in den ersten zwei Stunden. Das Sentiment-Barometer des Tages: Begeistert-Ironisch — reale Verbesserungen, bizarre Allianzen, lebhafte Debatten über professionelle Verantwortung im Zeitalter autonomer Agenten.
Fazit
Der 6. Mai 2026 zeigt in komprimierter Form, was die aktuelle KI-Phase auszeichnet: Die Infrastrukturschicht (MRC, Corning-Optik, Colossus-Compute) reift parallel zu den Anwendungsplattformen (Claude Managed Agents, Atlassian Rovo). Europäische Akteure wie LiveEO skalieren in strategisch relevante Märkte. Und die Debatten über Governance — sowohl unternehmerisch (Musk v. Altman) als auch professionell (Willisons Vibe-Coding-Essay) — zeigen, dass technischer Fortschritt und institutionelle Reife nicht im gleichen Tempo wachsen. Das bleibt die eigentliche Aufgabe.
AIBIX Beratung · Gerd Feiner · aibix.de