Warum Prompt Engineering überbewertet ist

Ende 2022 entthronte ChatGPT als schnellst wachsende App ein chinesisches Videoportal. Die so prompt (pun intended) angestiegenen Nutzer:innenbasis war in Teilen sehr affin, sich ihrer eigenen Unsicherheit in Bezug auf KI-Systeme hinzugeben und sich angesichts deren Komplexität in der Frage “Prompte ich gut?” ihrer selbst zu vergegenwärtigen. Bemerkenswerterweise wuchs die Zahl der KI-Expert:innen in einem nicht minder rekordverdächtigen Tempo wie die Zahl dieser User:innen – oder auch der potenziellen Kund:innen für kommerzialisierte Angebote rund um das Thema Prompting.

ÜBERBLICK

Prompt You Well

Gemeinhin erkennt man derlei Angebote daran, dass sie auf Personen zurückgehen, deren Name dem Template “Prompting” plus <Figur mit Sonderstatus aus Sage/Märchen/Religion> folgen – also etwa Prompting King, Prompting Sorcerer, Prompting Prodigy. CPO (Chief Promptologist Officer) wurde leider noch nicht gesichtet.

Während es zweifelsfrei unerlässlich ist, über Künstliche Intelligenz zu lernen und in vielen Arbeitswelten auch darüber Wissen aufzubauen, wie eine effektive Zusammenarbeit mit KI gelingen kann, verdient manch dubioser Trend eine genauere Betrachtung und heute soll es um den Hyperfokus auf Prompting gehen.

Trial and Error

Kurzfassung: Was ist Prompt Engineering?

Prompting Engineering meint das Erstellen von Abfragen oder Eingaben, die KI-Modelle anweisen, möglichst genaue und relevante Ergebnisse zu produzieren. Prompt Engineering ist dabei zweifelsfrei wichtig, gleichzeitig aber eben sehr limitiert in seinem tatsächlichen Potential. Komplexere und auch ressourcenintensivere Techniken sind beispielsweise der Einsatz der populären Retrieval-Augmented-Generation-Architektur oder Model Finetuning. Beide bedingen, und das ist keine neue Erkenntnis innerhalb datenintensiver Projekte, eine hohe Datenqualität.

Prompt Engineering - Der Optimierungsablauf
Beim Prompten kann man als Endanwender:in eine Reihe einfacher Prinzipien beachten. Zudem lässt sich mit etwas elaborierten Strategien und Instruktionen der Output feingranularer steuern. Eine Fülle von Ressourcen diesbezüglich ist frei verfügbar:
  • Online-Enzyklopädien: Hier finden sich bereits erste Beispiele für Prompt-Engineering-Techniken.
  • Offizielle Dokumentation: Anbieter veröffentlichen oft detaillierte Benutzerhandbücher und bewährte Verfahren für die Interaktion mit ihren Modellen.
  • Wissenschaftliche Beiträge: Zahlreiche akademische Arbeiten sind öffentlich zugänglich und bieten Einblicke in die Theorie und Anwendungen von Large Language Models (LLMs).
  • Online-Gemeinschaften und Foren: Plattformen wie GitHub, Reddit und Stack Overflow beherbergen aktive Gemeinschaften, in denen Probleme diskutiert werden.

Im Grunde genommen erfordert das Prompt-Engineering kein technisches Hintergrundwissen, um damit zu beginnen. Es geht vielmehr darum, durch Ausprobieren zu lernen, welche Arten von Prompts die besten Ergebnisse liefern. Dies ist etwas, das man sich durch Übung und Beschäftigung mit dem Modell selbst beibringen kann, und nicht durch kostspielige Kurse oder Workshops.

The Bigger Picture

Der Hyperfokus auf Prompting kann zu falschen Vorstellungen darüber führen, welche wissenschaftlichen, praktischen und sozio-technischen Herausforderungen in Bezug auf den Einsatz von Generativer KI bestehen¹. Alleine beim praktischen Einsatz von LLMs wollen eine Vielzahl von Faktoren mitgedacht werden, die sich in Teilen pragmatisch lösen lassen, in der Regel aber eine strategische Entscheidung darstellen und einer gründlichen Prüfung bedürfen. Beispiele:

  • Pragmatisch lösen kann ich, wie ich einen Prompt, der für spezifische Aufgaben in meiner Domaine gut funktioniert, mit meinem Team teile.
  • Strategisch entscheiden will ich, wie ich den Change hin zur Arbeit mit LLMs gestalte und durch Trainings oder user groups begleite.
  • Prüfen will ich sehr gründlich, wie ich LLMs sicher einsetzen kann.

¹: Zweifelsfrei braucht es hier Expert:innen.

Entmystifizierung der KI: Ablenkung von realen Herausforderungen

Die Kommerzialisierung esoterischen Wissens, das vermeintlich für die Erschließung des vollen Potenzials von LLMs unerlässlich ist, beutet Menschen aus, die wenig bis keine Erfahrung mit KI haben und die durch das Narrativ verunsichert werden, dass sie bald schon abgehängt und wegrationalisiert werden. Die Aufmerksamkeit wird so abgelenkt von substanziellen Herausforderungen im Bereich KI und auch von breiteren Debatten über strukturelle Probleme – etwa hinsichtlich dessen, wie umfassende digitale Fähigkeiten vermittelt werden können (Stichwort digital literacy). Technisch gesehen ist, wie oben beschrieben, in der Mehrheit der Anwendungsszenarien ein breites Methodenrepertoire unabdingbar.

¹: Für einen grundlegenden Überblick empfiehlt sich: https://llm-safety-challenges.github.io/challenges_llms.pdf

Julia Masloh

JULIA MASLOH
AI Solution Engineer
sequire technology

Das könnte Sie auch interessieren