KI ist kein Hype – es ist das neue Internet. Und du verpasst es gerade.

„Ich verstehe diesen ganzen KI-Hype nicht.“ – Diesen Kommentar habe ich gelesen und musste darauf antworten. Nicht genervt, sondern weil ich den Satz vor 30 Jahren genauso über Computer und vor 25 Jahren über das Internet gehört habe. Und weil wir gerade exakt wieder an diesem Punkt stehen.

Die Geschichte wiederholt sich

Als der Personal Computer aufkam, war er ein teures Spielzeug für Nerds. Als das Internet kam, war es ein Tummelplatz für zwielichtige Gestalten – einen sinnvollen Nutzen konnte das Ding ja unmöglich haben. Heute gibt es ganze Generationen, die kein Leben ohne Internet kennen. Und genau so wird es Generationen geben, die kein Leben ohne KI kennen werden.

KI ist nach Computer und Internet das nächste Werkzeug, das unser aller Arbeits- und Alltagsleben nachhaltig verändern wird. Die Fortschritte allein im letzten Jahr sind so gewaltig, dass wir uns langsam auf dem steilen Teil der Kurve befinden. Dem kann sich niemand mehr entziehen.

You are holding it wrong

Wenn Leute sagen, KI bringe ihnen nichts – dann liegt das in den allermeisten Fällen nicht an der Technologie, sondern daran, wie sie benutzt wird. Nur über ein Chat-Interface draufloszuquatschen und irgendwas zu erwarten: das ist vorgestern.

Wir reden heute von agentischen KI-Tools – Werkzeuge wie Claude Code, Cowork oder andere Coding-Agents. Die können auf Dateisysteme zugreifen, das Web durchsuchen, mit Datenbanken arbeiten, Code schreiben und testen. Die arbeiten 10 bis 18 Stunden am Stück durch und erledigen Aufgaben in Minuten, für die ich früher Tage gebraucht hätte.

Aber: Du musst ihnen den Job richtig erklären. Und dafür gibt es ein System.

Das 4-Stufen-System: Prompt, Context, Intent, Spec

1. Prompt – Die richtige Anweisung

Prompt Engineering ist nicht tot – es ist nach wie vor die Grundlage. Was sage ich dem Modell, was es tun soll? Aber der Prompt allein reicht heute nicht mehr. Er ist nur die erste Schicht.

2. Context – Das Kontextfenster managen

Sprachmodelle haben ein begrenztes Kurzzeitgedächtnis – das Kontextfenster. Es ist nicht gut, wenn das planlos vollgestopft wird. Context Engineering bedeutet: dem Modell gezielt die Informationen geben, die es für genau diesen Job braucht. Das kann über Webseiten-Abruf geschehen, über Vektordatenbanken, Graphdatenbanken – Stichwort RAG (Retrieval Augmented Generation). Der Kontext muss so gestaltet sein, dass er exakt das enthält, was das Modell gerade braucht. Nicht mehr, nicht weniger.

3. Intent – Ziele und Guardrails definieren

Agentische Modelle sind Optimierungsmaschinen. Du gibst ihnen eine Aufgabe und sie optimieren, bis sie fertig sind. Sie geben nicht auf. Sie nehmen Umwege. Sie schießen über das Ziel hinaus. Deshalb muss man neben dem Ziel auch klar formulieren, was unter keinen Umständen passieren soll. Klassische Guardrails: keine eigenmächtigen Credentials beschaffen, bei Unsicherheit anhalten und nachfragen, nichts erfinden. Wer das nicht definiert, der wundert sich, wenn die Maschine eigenkreativ wird.

4. Spec – Die präzise Spezifikation

Zum Schluss die Spezifikation: Was genau soll das Ergebnis sein? Wie soll die App aussehen? Was soll mit diesen Dokumenten passieren? Was erwarte ich als Output? Je präziser die Spec, desto besser das Ergebnis.

Der Clou: Du musst das nicht alleine können

Das Schöne an der ganzen Sache: Man muss kein Meister im Schreiben von Prompts, Kontexten oder Spezifikationen sein. Man kann die KI selbst nutzen, um diese vier Bausteine gemeinsam zu entwickeln. Setz dich hin, öffne ein Chat-Interface und sag:

„Ich möchte Folgendes erreichen: [Ziel]. Lass uns gemeinsam einen Prompt, den relevanten Kontext, Intent mit Guardrails und eine Spec dafür entwickeln.“

Im ersten Schritt baust du dir mit der KI die vier Bausteine. Im zweiten Schritt drückst du einer neuen Session genau diese Bausteine in die Hand – und dann rennt die Maschine los und arbeitet, ohne große Rückfragen, genau das ab, was du dir vorgestellt hast.

Aus der Praxis

Aufgaben, die vor einem Jahr noch nicht funktionierten, die vor einem halben Jahr nur mit ständigem Händchenhalten liefen – die werden heute in fünf bis zehn Minuten abgefrühstückt. Du denkst, du hast das Ding für den ganzen Vormittag beschäftigt, und nach zehn Minuten steht es da und will die nächste Aufgabe.

Mir ist neulich morgens beim Kaffee eingefallen: Lass uns doch mal ein Konsolenprogramm bauen, eine Art erweitertes TUI-Tool. Am Abend war das Ding fertig. Oder: „Hier habe ich ein paar Repos, die Dokumentation passt nicht zusammen – sortier das mal aus.“ Ratzfatz hatte ich sauber dokumentierte Repositories. Dafür hätte ich früher eine Woche gebraucht.

Und nein, die halluzinieren nicht, wenn man ihnen einen sauberen Kontext vorgibt. Wenn die Information nicht da ist, sagen sie das auch. Man muss es ihnen nur sagen – und genau dafür ist das Intent-Thema da.

Dranbleiben oder abgehängt werden

KI ist das neue Office. Genauso wie wir damals Excel, Word und PowerPoint lernen mussten, müssen wir uns jetzt ein neues Skillset aneignen. Der Unterschied: Es entwickelt sich momentan alle paar Monate weiter. Da muss man am Ball bleiben.

Jetzt ist die Gelegenheit, das mitzuerleben, wenn es gerade losgeht. Sich hinzusetzen und ein paar Sachen auszuprobieren – unbezahlbar. Denn eines ist sicher: Es geht nicht mehr weg. Und dein Arbeitskollege, der sich nicht verschließt, der ist derjenige, der den größten Output produziert.

Denk mal drüber nach.

Generative KI-Systeme entwickeln: KI-Engineering für die Praxis – vom Prompt Engineering bis zu RAG und Agenten
  • Von der Idee zur KI-Anwendung – praxisnah und fundiertEin Leitfaden für alle wesentlichen Aspekte der Entwicklung generativer KI-Systeme, inklusive Prompt Engineering, RAG, Finetuning und AgentenDas Buch bietet ein Framework für den Einsatz von KI in realen AnwendungenEs deckt den kompletten Entwicklungszyklus von KI-Systemen ab, von der Modellentwicklung bis zum produktiven BetriebIn diesem Praxishandbuch beschreibt Bestsellerautorin Chip Huyen die Werkzeuge des KI-Engineerings und den Prozess der Erstellung von KI-Anwendungen mithilfe generativer Foundation Models
  • Das Buch deckt den kompletten Entwicklungszyklus von KI-Systemen ab, von der Modellentwicklung bis zum produktiven Betrieb
  • Entwickler und Entwicklerinnen von KI-Anwendungen erfahren, wie sie sich in der KI-Landschaft zurechtfinden – bei Modellen, Datensätzen, Bewertungs-Benchmarks und der scheinbar unendlichen Zahl von möglichen Anwendungsmustern
  • Das Buch bietet damit einen praxisorientierten Rahmen für die Entwicklung produktionsreifer generativer KI-Systeme – mit klarem Fokus auf aktuellen Tools, Herausforderungen und Potenzialen im KI-Engineering
  • Erfahren Sie, was KI-Engineering ist und wie es sich vom traditionellen Machine-Learning-Engineering unterscheidetMachen Sie sich mit dem Prozess der KI-Anwendungsentwicklung vertraut und lernen Sie die typischen Herausforderungen sowie mögliche Lösungsansätze kennenErkunden Sie verschiedene Techniken zur Modellanpassung wie Prompt Engineering, RAG, Finetuning, Agenten und Dataset Engineering und verstehen Sie deren FunktionsweiseUntersuchen Sie die Engpässe hinsichtlich Latenz und Kosten bei der Bereitstellung von Foundation Models und lernen Sie, wie Sie diese überwinden könnenWählen Sie das passende Modell und die richtigen Metriken, Daten und Entwicklungsmuster für Ihre Anforderungen aus
Angebot
Prompt Engineering for LLMs: The Art and Science of Building Large Language Model-Based Applications
  • Large language models (LLMs) are revolutionizing the world, promising to automate tasks and solve complex problems
  • A new generation of software applications are using these models as building blocks to unlock new potential in almost every domain, but reliably accessing these capabilities requires new skills
  • This book will teach you the art and science of prompt engineering-the key to unlocking the true potential of LLMs
  • Industry experts John Berryman and Albert Ziegler share how to communicate effectively with AI, transforming your ideas into a language model-friendly format
  • By learning both the philosophical foundation and practical techniques, you’ll be equipped with the knowledge and confidence to build the next generation of LLM-powered applications
Prompting kurz & gut: Large Language Models verstehen, ChatGPT & Co. professionell nutzen
  • Kompakte und intelligente Einführung ins Prompting und in LLMsVerstehen, wie Large Language Models »denken« und sprechenMit Best Practices und grundlegenden Strategien effektiv promptenMit fortgeschrittenen Prompting-Techniken wie Systemprompts, benutzerdefinierten GPTs und Meta-Prompting zum Profi werdenMit externen Tools Prompts schneller schreiben und besser verwaltenPraxis-Beispiele aus der IT: vom Codieren über Architekturüberlegungen bis zur automatisierten Dokumentation Prompting – klingt einfach, hat es aber in sich
  • Wer Large Language Models wie ChatGPT, Claude oder Gemini treffsicher und effizient einsetzen will, braucht mehr als nur gute Fragen
  • Dieses kompakte Buch erklärt, wie Sprachmodelle »denken«, wie Prompts aufgebaut sein sollten – und wie sich mit Strategie, praktischem Know-how und den passenden Tools deutlich bessere Ergebnisse erzielen lassen
  • Ob Sie neu einsteigen oder Ihr Prompting verbessern möchten: Hier finden Sie fundiertes Wissen, klare Anleitungen und zahlreiche Praxistipps
  • Verstehen, wie Sprachmodelle funktionieren und wie man mit ihnen kommuniziertBest Practices für wirksame Prompts – praxisnah, präzise und auf den Anwendungsfall zugeschnittenTools, Workflows und Chatbot-Features für produktiveres ArbeitenPraxisbeispiele aus der IT: von Code über Dokumentation bis ArchitekturFortgeschrittene Techniken: Systemprompts, benutzerdefinierte GPTs, Meta-PromptingRechtliches: Datenschutz, Urheber- und Nutzungsrechte im Blick behaltenMit umfangreichen Cheatsheets