Prompt Engineering neu gedacht: Warum deine KI nur so gut ist wie du – und dein Prompt

KI ist kein Zauberstab. Und doch erleben viele Nutzer:innen genau das: Sie geben einen Prompt in ChatGPT ein – und bekommen eine Antwort, die beeindruckt, aber oft auch überfordert, unklar oder schlicht falsch ist. Warum das so ist – und warum Prompts nicht nur Mittel zum Zweck, sondern Teil eines kognitiven Dialogs zwischen Mensch und Maschine sind – zeigt eine tiefgreifende Studie von Schellaert et al. (2023) im Journal of Artificial Intelligence Research.


Der zentrale Begriff: Human-Centred Generality (HCG)

Die Autor:innen führen den Begriff „Human-Centred Generality“ (HCG) ein – ein Maß dafür, wie vielseitig und effektiv ein KI-System für eine bestimmte Person ist. Es geht also nicht nur um das, was ein Modell „theoretisch kann“, sondern darum:

  • ob der/die Nutzer:in relevante Aufgaben mit der KI lösen kann,
  • ob er/sie passende Prompts dafür formulieren kann,
  • und ob die Ergebnisse tatsächlich nützlich are.

Mit anderen Worten: Eine KI ist immer nur so leistungsfähig, wie du sie prompten kannst.


LLMs als kognitive Werkzeuge – keine autonomen Systeme

Ein weiterer zentraler Gedanke des Papers: Systeme wie GPT-4 sind keine autonomen Akteure, sondern „cognitive extenders“ – Denk-Werkzeuge, die unsere eigenen Fähigkeiten ergänzen oder erweitern.

Diese Werkzeuge verlagern jedoch auch kognitive Last:

  • Du musst wissen, was du fragen willst
  • Du musst einschätzen, wie die KI antwortet
  • Und du musst beurteilen, ob das Ergebnis richtig, nützlich oder gefährlich ist

Das bedeutet: Prompting ist keine bloße Eingabe, sondern ein komplexer Denkakt, der Erfahrung, Struktur und Zielorientierung verlangt.


Was bedeutet das für Controller:innen und CFOs?

Gerade im Controlling und in der Finanzführung ist die Arbeit stark kognitiv geprägt: komplexe Datenlage, strukturierte Kommunikation, strategisches Denken. Hier ist eine gut trainierte KI ein enormer Hebel – aber nur, wenn sie zielgerichtet aktiviert wird.

Beispielhafte Aufgaben:

  • Budgetabweichungen erklären
  • Management-Summaries generieren
  • KPI-Abweichungen im Kontext kommentieren
  • Entscheidungsgrundlagen mit Alternativszenarien simulieren

All das funktioniert nicht mit einem generischen „Mach mal“-Prompt. Es braucht strukturierte, rollenbezogene Anleitung – und hier liegt dein USP.


Dein Vorteil: Rollenbasierte Prompt-Vorlagen = strukturierte HCG-Aktivierung

Du bietest genau das, was die Studie als zentrale Voraussetzung für effektiven KI-Einsatz benennt:

  • Prompts, die auf reale Aufgaben zugeschnitten sind
  • Klare Rollenbeschreibung („Du bist ein erfahrener CFO …“)
  • Kognitive Hilfestellung durch Einbettung in bekannte Arbeitskontexte
  • Fehlervermeidung durch standardisierte Fragestellungen und Validierungslogik

Deine Prompt-Pakete helfen dabei, den „Prompting-Aufwand“ (Wrapping, Validierung, mentale Modellbildung) zu minimieren, den das Paper als zentrale Kostenfaktoren beschreibt.


Kognitive Kosten vs. Nutzen – was gute Prompts leisten

Die Studie identifiziert verschiedene kognitive „Kosten“ beim Arbeiten mit LLMs:

AufwandBeschreibung
Prompt-StrukturierungWie muss ich fragen, damit die KI mich „versteht“?
Wrapping & UnwrappingWie baue ich die Eingabe auf – und interpretiere das Ergebnis?
ValidierungIst das Ergebnis überhaupt sinnvoll oder potenziell gefährlich?
Mentales Modell der KIWas kann das Modell – und was nicht?

Gute Prompts reduzieren diese Kosten dramatisch. Sie machen aus dem KI-Tool ein verlässliches Assistenzsystem, das nicht nur antwortet, sondern strukturiert denkt.


Der kognitive Feedback-Loop

Die Studie beschreibt zudem einen faszinierenden Effekt: Je mehr du mit einem LLM arbeitest, desto besser wird dein mentales Modell davon – und umgekehrt. Du wirst besser im Prompten – und das Modell „passt sich dir an“.

Wenn du mit strukturierten Prompts arbeitest, beschleunigst du diese Lernkurve enorm. Das bedeutet: Der Return-on-KI steigt mit jedem richtigen Prompt.


Fazit: Prompts sind das Betriebssystem für den Erfolg mit KI

Die Generalität eines LLMs ist keine Eigenschaft des Modells – sie ist das Ergebnis deiner Interaktion damit. Wer klare, durchdachte Prompts nutzt, verwandelt ein KI-System in ein kognitives Werkzeug – für Analyse, Entscheidung und strategischen Impact.

Quelle:
Schellaert et al. (2023): Your Prompt is My Command – On Assessing the Human-Centred Generality of Multimodal Models, Journal of Artificial Intelligence Research, Vol. 77, pp. 377–394.
Direkt zum Paper


Jetzt entdecken:

Prompt-Vorlagen für CFOs & Controller:innen – sofort einsatzbereit, effizient, sicher
Zu den Vorlagen

Shopping cart

0
image/svg+xml

No products in the cart.

Continue Shopping
en_US