Ein Keynote-Tag, den Google gestaltet hat
Der 22. April 2026 gehört Google Cloud Next 2026 — und zwar in einem Maß, das ausgesprochen selten ist. Sundar Pichai eröffnet die Konferenz mit einer Ansage, die dreierlei parallel bündelt: eine konsolidierte Agenten-Plattform (Gemini Enterprise Agent Platform, ehemals Vertex AI), zwei spezialisierte neue TPU-Chips (TPU 8t für Training und TPU 8i für Inferenz) und das Momentum-Signal, dass Googles First-Party-Modelle mittlerweile 16 Milliarden Tokens pro Minute über direkte API-Nutzung verarbeiten. Pichai nennt einen zweiten, nicht weniger aufsehenerregenden Satz: „75% of all new code at Google is now AI-generated and approved by engineers, up from 50% last fall.“
Rund um diese Keynote ordnet sich der Rest des Tages: OpenAI committed bis zu 1,5 Milliarden Dollar zu einem Private-Equity-Joint-Venture namens DeployCo, ATMOS Space Cargo schließt eine €25,7-Millionen-Series-A für europäische Return-from-Orbit-Infrastruktur, und Anthropic muss eingestehen, dass unautorisierte Nutzer über einen Third-Party-Vendor Zugriff auf das restriktiv freigegebene Mythos-Modell erlangt haben — eine Meldung, die am 21. April aufkam und am 22. das Community-Gespräch dominiert.
TPU 8t und TPU 8i: Die achte Generation kommt in zwei Geschmacksrichtungen
Amin Vahdat, Googles SVP für AI & Infrastructure, beschreibt die neue TPU-Generation als „the culmination of more than a decade of development“. Anders als bisher gibt es zwei Varianten mit explizit unterschiedlichen Rollen. TPU 8t ist das Trainings-SKU: Ein einzelner Superpod skaliert auf 9.600 Chips mit 2 Petabyte shared High-Bandwidth-Memory und liefert 121 ExaFlops. Zusammen mit dem neuen Virgo-Network und Googles Pathways-Software soll laut Google „near-linear scaling for up to a million chips in a single logical cluster“ möglich sein. TPU 8i ist das Inferenz-SKU, adressiert die „collaborative, iterative work of many specialized agents“: 288 GB HBM, 384 MB On-Chip-SRAM (dreimal so viel wie zuvor), 19,2 Tb/s Interconnect-Bandbreite, und — laut Google — achtzig Prozent bessere Performance-per-Dollar gegenüber der Vorgängergeneration.
Die politisch-strategische Frage dahinter ist nicht nur Performance, sondern Vertical Integration. Google besitzt jetzt den Chip, den Host-CPU-Layer (Axion ARM), das Netzwerk (Virgo, Boardfly-Topologie), die Modellfamilie (Gemini 3, Gemma 4), die Agenten-Plattform (Gemini Enterprise) und den Endkunden-Vertriebskanal (Workspace mit mehr als drei Milliarden Nutzern). Thomas Kurian formuliert es auf der Bühne zugespitzt: Andere Anbieter „handing you the pieces, not the platform“. Das ist die Positionierung, die Cloud Next 2026 zementiert.
Für den Markt ist das nicht folgenlos: Die erweiterte Anthropic-Partnerschaft mit Google und Broadcom — bekanntgegeben am 6. April — sichert Anthropic „multiple gigawatts of next-generation TPU capacity that we expect to come online starting in 2027″. Ein Großteil dieses Compute-Commitments wird auf TPU-8-Silizium laufen. Gleichzeitig meldete CNBC bereits am 20. April, dass Google mit Marvell Technology über zwei neue AI-Inference-Chips verhandelt — eine Memory Processing Unit und eine eigene Inference-TPU. Der Custom-ASIC-Markt wächst laut zitierten Analysten-Schätzungen 2026 um rund 45 Prozent. Marvell-Aktien sprangen am Tag der Meldung spürbar nach oben, Broadcom gab nach.
A2A v1.2 in Produktion: Das Protokoll wird zum strukturellen Wettbewerbsvorteil
Die für Enterprise-Käufer entscheidende Nachricht der Keynote liegt eine Schicht über Gemini: Das Agent2Agent-Protokoll (A2A) ist in Version 1.2 allgemein verfügbar und — entscheidend — bereits bei 150 Organisationen in Produktion. Es wird von der Linux Foundation’s Agentic AI Foundation verwaltet, enthält signierte Agent-Cards mit kryptographischer Domain-Verifikation und läuft explizit bei Microsoft, AWS, Salesforce, SAP und ServiceNow. A2A adressiert das orthogonale Problem zu Anthropics MCP: MCP regelt, wie ein Agent Werkzeuge und Datenquellen anspricht; A2A regelt, wie mehrere Agenten über Plattform- und Organisationsgrenzen hinweg miteinander reden.
Parallel dazu hat Google Workspace Studio vorgestellt — einen No-Code-Agent-Builder, der über Gmail, Docs, Sheets, Drive, Meet und Chat hinweg aus natürlicher Sprache agentische Automatisierungen generiert („every Friday, ping me to update my tracker“). Project Mariner, der Web-Browsing-Agent auf Gemini-Basis, erreicht 83,5 Prozent auf dem WebVoyager-Benchmark und koordiniert bis zu zehn parallele Tasks. Das Agent Development Kit (ADK) ist in Version 1.0 stable für Python, Go, Java und TypeScript — der Model Garden hostet über 200 Modelle, darunter Anthropic Claude und Meta Llama. Ein begleitender Round-Up von Karthik Narain listet zehn konkrete Enterprise-Deployments, darunter Capcom, Citi Wealth und Home Depot.
OpenAI DeployCo: Das Distributions-Gegenstück
Während Google die vertikale Integration vorantreibt, geht OpenAI einen komplementären Weg. Laut Financial-Times-Bericht (via TNW) committed OpenAI bis zu 1,5 Milliarden Dollar eigenes Kapital zu einem Joint Venture mit Private-Equity-Firmen — intern als DeployCo geführt, als Delaware LLC registriert, bewertet mit 10 Milliarden Dollar. Initial gehen 500 Millionen rein, mit Option auf eine weitere Milliarde. Die PE-Partner — TPG, Bain Capital, Advent International, Brookfield und Goanna Capital — legen zusammen rund 4 Milliarden nach.
Die strukturelle Besonderheit, die das Deal-Design so aufschlussreich macht: OpenAI garantiert den PE-Investoren einen jährlichen Return von 17,5 Prozent über fünf Jahre. Das bedeutet laut TNW bis zu 700 Millionen Dollar jährliche Garantie-Exposure, falls das JV unterperformt — bemerkenswert für ein Unternehmen, das 2026 voraussichtlich rund 14 Milliarden Dollar Verlust macht bei knapp 30 Milliarden Dollar annualisiertem Umsatz. Strategisch geht es nicht um Kapital, sondern um Distribution: Die PE-Portfolios — hunderte Unternehmen in Healthcare, Logistik, Manufacturing, Financial Services — werden zur Captive-Pipeline für OpenAIs Enterprise-Produkte. Anthropic verfolgt laut TNW ein paralleles Modell mit Blackstone, Hellman & Friedman und Permira; dort allerdings nur rund eine Milliarde Volumen und ohne garantierten Return-Floor.
ATMOS Space Cargo: Europas Return-from-Orbit-Infrastruktur
Aus Europa die substanzielleste Funding-Meldung des Tages: ATMOS Space Cargo hat eine Series-A-Runde über 25,7 Millionen Euro abgeschlossen. Co-led von Balnord und Expansion, beteiligt sind Keen Defence and Security sowie der European Innovation Council über den EIC-Accelerator. Weitere Investoren: OTB Ventures, High-Tech Gründerfonds, APEX Ventures, Seraphim, Faber, E2MC, Kirch Ventures, Lennertz & Co., Mätch VC, MBG Baden-Württemberg und Tech Horizons.
Mittelverwendung: Eine initiale Drei-Fahrzeug-Flotte PHOENIX 2, der Start von ATMOS WORKS für Regierungs- und Verteidigungskunden, sowie die Entwicklung von PHOENIX 3 mit rund einer Tonne Nutzlast-Kapazität. PHOENIX 2 ist ein Free-Flying-Raumfahrzeug mit integrierter Antriebs- und Energieversorgung, Missionsdauern von Stunden bis zu mehreren Monaten im Low Earth Orbit, autonomes De-Orbit und kontrollierter atmosphärischer Wiedereintritt mithilfe der Inflatable Atmospheric Decelerator (IAD) — gleichzeitig Hitzeschild und aerodynamische Bremse, non-ablativ. Erste Recovery-Operationen werden bei Santa Maria auf den Azoren unter Portugals Lizenz ANACOM-09/2026-AE vorbereitet.
CEO und Co-Founder Sebastian Klaus fasst den strategischen Anspruch zusammen: „A structured campaign of three vehicles establishes Europe’s first routine orbital return infrastructure.“ Das ist die Formulierung, die den Unterschied zur einzelnen Demonstrationsmission markiert — Europa bekommt eine souverän betreibbare Return-Kapazität. Für AI-Infrastruktur besonders relevant ist ATMOS WORKS: Secure-Return sensibler Hardware und Daten als Kern-Use-Case für Regierungs- und Verteidigungskunden. Genau diese Dual-Use-Architekturen werden im Umfeld von EU AI Act und KRITIS-Souveränität zunehmend Pflicht.
Security: Mythos und die Third-Party-Vendor-Schwachstelle
Die zweite Meldung, die am 22. April die Community noch trägt, obwohl der Bericht einen Tag älter ist: Eine unautorisierte Gruppe hat laut TechCrunch und Bloomberg Zugriff auf Anthropics restriktiv freigegebenes Cyber-Tool Mythos erlangt. Anthropics offizielles Statement: „We’re investigating a report claiming unauthorized access to Claude Mythos Preview through one of our third-party vendor environments.“ Die Gruppe — laut Bloomberg Mitglieder eines privaten Discord-Kanals, der sich systematisch für unveröffentlichte Modelle interessiert — hat Mythos am Tag des Launch erreicht, indem sie „made an educated guess about the model’s online location based on knowledge about the format Anthropic has used for other models„. Anthropic erklärt, es gebe bislang keinerlei Hinweise, dass die Aktivität Anthropic-Systeme berührt hat.
Für die Enterprise-Security-Praxis ist das ein lehrreicher Fall. Mythos wurde im Rahmen von Project Glasswing an ausgewählte Vendors freigegeben — darunter Apple — explizit, um Missbrauch durch Dritte zu vermeiden. Der Zugriff entstand trotzdem, und zwar nicht bei Anthropic, sondern in der Umgebung eines dieser Vendors. Die praktischen Konsequenzen für Unternehmen, die an Early-Access-Programmen für Frontier-Modelle teilnehmen: Vendor-Tenants müssen mindestens ebenso strikt segmentiert werden wie eigene Produktionsumgebungen. Eigenes IAM, eigene Logs, dedizierte Netzsegmente, keine URL-Pattern-Wiederverwendung über Modellgenerationen hinweg — das letzte Detail ist für die Mythos-Geschichte besonders pikant, weil genau dadurch die Adressen „erraten“ werden konnten.
Kontext: Gemma 4, Claude Opus 4.7, das schnelle Release-Tempo
Drei Meldungen aus den Wochen davor laufen in die Cloud-Next-Story hinein und sind für die Einordnung hilfreich. Gemma 4 ist am 2. April erschienen — erstmals unter Apache-2.0-Lizenz, Varianten mit 2B, 4B, 26B und 31B Parametern, Context-Window bis zu 256K Tokens. Apache 2.0 ist hier die eigentliche Nachricht: kommerzielle Nutzung, Modifikation und Redistribution ohne separate Vereinbarung mit Google, und ohne Royalty-Pflicht. Für europäische Behörden und Kritische Infrastrukturen mit Souveränitätsanforderungen ist das die strukturelle Einladung, Gemma 4 als On-Prem-Basismodell zu evaluieren.
Claude Opus 4.7 kam am 16. April auf allen Claude-Produkten, API, Amazon Bedrock, Google Vertex AI und Microsoft Foundry. Substanzielle Verbesserungen bei Software-Engineering-Tasks, hochauflösender Image-Input bis 2576 Pixel / 3,75 Megapixel. Preise unverändert gegenüber Opus 4.6: fünf Dollar pro Million Input-Tokens, fünfundzwanzig Dollar pro Million Output-Tokens. Der Kontrast zu Mythos ist aufschlussreich: Opus 4.7 ist der breit verfügbare, vorsichtig kuratierte Frontier-Release, Mythos das zu gefährlich für die Öffentlichkeit positionierte Cyber-Produkt — und genau dort ist die Kontrolle nun geknackt.
Fazit
Google hat an diesem 22. April eine Keynote geliefert, die in Struktur und Umfang erstmals die Erzählung eines vollständig vertikal integrierten AI-Providers trägt. TPU 8t/8i, Gemini Enterprise Agent Platform, Workspace Studio, Project Mariner, ADK 1.0, A2A v1.2 bei 150 Organisationen in Produktion — jeder einzelne dieser Bausteine ist ein Statement, die Summe ist eine Positionierungs-Ansage. Für AWS und Microsoft bleiben strukturelle Vorteile in Reichweite und Enterprise-Distribution; OpenAIs DeployCo zeigt, dass derselbe Enterprise-Markt über ein Finanz-Engineering-Konstrukt angegangen werden kann. Und der Mythos-Fall erinnert daran, dass die Sicherheits-Perimeter in Agent-/Modell-Supply-Chains längst jenseits des Anbieters liegen.
Quellen (alle HTTP-verifiziert, mit Zitat-Abgleich)
- Sundar Pichai — Cloud Next ’26: Momentum and innovation at Google scale (blog.google, 22.04.2026)
- Amin Vahdat — Our eighth generation TPUs: two chips for the agentic era (blog.google, 22.04.2026)
- Karthik Narain — 10 leading enterprises show why agents mean business (blog.google, 22.04.2026)
- Alina Maria Stan — Google Cloud Next 2026 deep dive (TNW, 22.04.2026)
- Ana-Maria Stanciuc — OpenAI to commit up to $1.5B of its own capital to DeployCo (TNW, 22.04.2026)
- Marvell pops on report it will help Google with custom AI chips (CNBC, 20.04.2026)
- Cate Lawrence — ATMOS Space Cargo secures €25.7M Series A (Tech.eu, 22.04.2026)
- Anthropic — Expands partnership with Google and Broadcom for multiple gigawatts of next-generation compute (Anthropic, 06.04.2026)
- Lucas Ropek — Unauthorized group has gained access to Anthropic’s exclusive cyber tool Mythos (TechCrunch, 21.04.2026)
- Gemma 4: Expanding the Gemmaverse with Apache 2.0 (Google Open Source Blog, 02.04.2026)
- Introducing Claude Opus 4.7 (Anthropic, 16.04.2026)
— Gerd Feiner, AIBIX Beratung