Die Woche endet mit einem CapEx-Donnerschlag, der die gesamte Tech-Branche erschüttert: Microsoft, Meta und Alphabet verkündeten innerhalb von 24 Stunden Infrastruktur-Investitionen von zusammen fast 600 Milliarden USD. Gleichzeitig lieferte OpenAI eine der unfreiwillig komischsten Aktionen des Jahres — und Salesforce schrieb MCP-Geschichte. Hier ist, was der 30. April 2026 für KI-Entscheider bedeutet.
Die CapEx-Superweek: Wenn 600 Milliarden Dollar Fragezeichen hinterlassen
Man stelle sich vor, drei der mächtigsten Technologiekonzerne der Welt kündigen an einem einzigen Tag ihre Jahresinvestitionen an — und der Markt bestraft zwei davon. Genau das geschah am 30. April 2026. Microsoft meldete für Q3 FY26 einen Umsatz von 82,9 Milliarden USD, Azure wuchs um beeindruckende 40 Prozent gegenüber dem Vorjahr, und das KI-Geschäft legte mit 123 Prozent YoY-Wachstum auf eine Jahresrate von 37 Milliarden USD zu. Und trotzdem: Die Aktie geriet unter Druck. Schuld ist die Capex-Führung von 190 Milliarden USD für das Gesamtjahr — 25 Milliarden davon allein durch gestiegene Komponentenpreise.
Meta trifft es noch härter. 56,31 Milliarden USD Umsatz, die stärkste Wachstumsrate seit 2021, ein EPS-Beat — und die Aktie fiel um acht Prozent. Der Grund: Meta hob seine Jahres-Capex-Spanne auf 125 bis 145 Milliarden USD an. JPMorgan stufte das Unternehmen auf neutral zurück und verwies auf ein strukturelles Problem: Anders als Microsoft oder Alphabet hat Meta kein Cloud-Geschäft, das KI-Investitionen direkt in Umsatz ummünzt. Die Frage, die auf X, Reddit und in den Finanzblogs brennt: Ist das visionäres Commitment oder ein neuer Dot-Com-Rausch?
Alphabet bildete den erfreulichen Kontrapunkt. 109,9 Milliarden USD Umsatz, Nettoeinkommen von 62,58 Milliarden (+81 % YoY) — und vor allem: Google Cloud wuchs um 63 Prozent, schneller als AWS und Azure. Hier sahen Investoren den direkten Zusammenhang zwischen Infrastruktur-Investition und Cloud-Umsatz — und honorierten ihn. Die Lektion: Wer KI-Kapazitäten als Dienstleistung verkaufen kann, hat einen klaren ROI-Pfad. Wer das nicht kann, kämpft um Vertrauen.
Salesforce macht MCP produktionsreif — für alle
Ein Meilenstein, der in der CapEx-Aufregung fast unterging: Salesforce hat seine Hosted MCP Server auf General Availability gesetzt (Seite geht nur mit Cookies) — für alle Enterprise Edition Orgs und darüber, ohne Aufpreis. Das ist mehr als ein Feature-Launch. Es ist das erste Mal, dass eine der größten Enterprise-Plattformen der Welt das Model Context Protocol als vollständig produktionsreife Infrastruktur ausrollt.
Ein Hosted MCP Server ist ein von Salesforce verwalteter Endpunkt, der die gesamte Logik einer Salesforce-Org — Daten, Flows, Apex-Aktionen, Abfragen — für jeden KI-Client zugänglich macht, der MCP spricht. Und zwar mit vollem Berechtigungsmodell: Jede MCP-Transaktion läuft unter der Identität des authentifizierten Nutzers, sodass CRUD-, FLS- und Sharing-Rules automatisch greifen. Für CRM-Admins und -Architekten ist das eine direkte Einladung, KI-Agenten nahtlos in Salesforce-Workflows zu integrieren — mit Governance von Anfang an.
Gleichzeitig launchte das Startup AdKit einen MCP-Service für Google- und Meta-Werbekampagnen, der konsequent auf einen Human-in-the-Loop-Ansatz setzt: Kein Agent schreibt direkt in die Werbeplattform — alle Änderungen gehen durch ein Review-Dashboard. Dieses Pattern, bei dem der Agent orchestriert und der Mensch genehmigt, dürfte in finanziell sensitiven Domains Standard werden.
Musk v. Altman Tag 4: Birchall am Zeug
Der Prozess, der die Branche seit Wochen wie ein juristisches Reality-TV-Format beschäftigt, lieferte am 30. April eine neue Episode. Jared Birchall, Elon Musks Vermögensverwalter und engster Vertrauter, übernahm den Zeugenstand. OpenAIs Anwalt befragte ihn zu den Donor-Advised-Funds, über die Musks OpenAI-Spenden liefen, und ob Musk nach der Einzahlung noch ein Weisungsrecht gegenüber diesen Fonds hatte. Birchall antwortete schlicht: Er sei kein Anwalt und kenne die genaue Rechtslage nicht.
Die entscheidende Panne: Birchall beantwortete eine Frage, während die Jury nicht im Raum war — was nach Absprache nicht hätte passieren dürfen. Richterin Gonzalez Rogers kündigte an, in den kommenden Tagen über den Umgang mit dieser Aussage zu entscheiden. Beobachter sehen darin ein potenzielles Missstepp des OpenAI-Anwaltsteams. Musks eigene frühere Aussage, er habe das „Kleingedruckte“ zu OpenAIs Umwandlungsmöglichkeit nicht gelesen, bleibt unterdessen das stärkste Argument der Gegenseite.
OpenAI, Anthropic und die Ironie des Jahres
Die unfreiwillig komischste Geschichte des Tages: OpenAI CEO Sam Altman kündigte auf X den Start von GPT-5.5-Cyber an — einem Frontier-Cybermodell, das Penetrationstests, Schwachstellenanalysen und Malware-Reverse-Engineering beherrscht. Der Haken: Der Zugang ist strikt reglementiert, auf Regierungsbehörden, Betreiber kritischer Infrastruktur und geprüfte Sicherheitsforscher.
Wenige Wochen zuvor hatte Altman Anthropics Claude Mythos öffentlich kritisiert — genau weil Anthropic sein Cybermodell auf einen engen Kreis von Institutionen beschränkt hatte. Altman hatte das als „auf Angst, Restriktion und Elitendenken“ basierend bezeichnet. Nun führte OpenAI faktisch dasselbe Modell unter denselben Bedingungen ein. TechCrunch kommentierte trocken: „After dissing Anthropic for limiting Mythos, OpenAI restricts access to Cyber, too.“
Aus Security-Perspektive ist das Vorgehen beider Unternehmen verständlich: Modelle, die autonom Zero-Day-Exploits entwickeln können, gehören nicht in unregulierte Hände. Aber die Positionierungs-Rhetorik von OpenAI hat sich an diesem Tag selbst eingeholt.
Netomi: $110 Mio. — Accenture und Adobe setzen auf KI-Kundenservice
Im Funding-Segment steht der 30. April im Zeichen von Netomis 110-Millionen-Dollar Series C, angeführt von Accenture Ventures und Adobe Ventures. Das Startup nutzt KI für den Kundenservice von United Airlines, Delta, Paramount und DraftKings — und integriert dabei Modelle von OpenAI, Anthropic und Google. Die Accenture-Partnerschaft geht über Kapital hinaus: Hunderte von Accenture-Mitarbeitenden sind bereits trainiert, Netomis Technologie bei gemeinsamen Kunden einzusetzen. Das ist ein ernst zu nehmendes Go-to-Market-Signal für den KI-Kundenservice-Markt.
Stimmen aus der Community: Skepsis trifft Begeisterung
Der dominante Diskurs auf X und in Finanzblogs drehte sich am 30. April um eine einzige Frage: Hat Big Tech den Return-on-Investment seiner massiven KI-Ausgaben überzeugend kommuniziert? Für Microsoft und Alphabet lautete die Community-Antwort überwiegend ja — das Azure-Wachstum und Googles Cloud-Explosion liefern konkrete Metriken. Für Meta bleibt die Skepsis: Ein vielgeteilter Kommentar auf X fasste es zusammen: „AI profits are here — but only for companies that can sell compute back to the market. Everyone else is buying expensive hope.“
Parallel dazu sorgte Sam Altmans GPT-5.5-Cyber-Post für gespaltene Reaktionen. Ein Teil der Community verteidigte den restriktiven Zugang als verantwortungsvoll. Ein anderer Teil wertete die Situation als Glaubwürdigkeitsproblem: Wer seinen Mitbewerber für Restriktionen angreift und sie dann selbst einführt, verliert Punkte bei der Positionierung — auch wenn das sachliche Argument dieselbe Stärke behält.
Fazit: Infrastruktur, Ironie und der ROI-Test
Der 30. April 2026 war ein Tag der Bewährungsproben. Big Tech musste vor Investoren beweisen, dass hunderte Milliarden an KI-Investitionen keinen blinden Rausch darstellen. Google bestand den Test — Meta noch nicht überzeugend. OpenAI musste sich fragen lassen, ob rhetorische Offensive gegenüber dem Mitbewerber mit eigenem Handeln kompatibel ist. Und Salesforce demonstrierte leise, wie Enterprise-MCP im Jahr 2026 aussieht: produktionsreif, berechtigungskontrolliert, ohne Aufpreis.
Für Unternehmen, die KI-Strategie planen, ist die Botschaft klar: Cloud-Kapazitäten werden 2026 und 2027 teurer, bevor neue Angebote ans Netz gehen. Frühzeitige Reservierungen und ein konkreter ROI-Pfad sind keine Luxus — sie sind strategische Notwendigkeit.
AIBIX Beratung · Gerd Feiner · aibix.de