Ende 2022 entthronte ChatGPT als schnellst wachsende App ein chinesisches Videoportal. Die so prompt (pun intended) angestiegenen Nutzer:innenbasis war in Teilen sehr affin, sich ihrer eigenen Unsicherheit in Bezug auf KI-Systeme hinzugeben und sich angesichts deren Komplexität in der Frage “Prompte ich gut?” ihrer selbst zu vergegenwärtigen. Bemerkenswerterweise wuchs die Zahl der KI-Expert:innen in einem nicht minder rekordverdächtigen Tempo wie die Zahl dieser User:innen – oder auch der potenziellen Kund:innen für kommerzialisierte Angebote rund um das Thema Prompting.
Gemeinhin erkennt man derlei Angebote daran, dass sie auf Personen zurückgehen, deren Name dem Template “Prompting” plus <Figur mit Sonderstatus aus Sage/Märchen/Religion> folgen – also etwa Prompting King, Prompting Sorcerer, Prompting Prodigy. CPO (Chief Promptologist Officer) wurde leider noch nicht gesichtet.
Während es zweifelsfrei unerlässlich ist, über Künstliche Intelligenz zu lernen und in vielen Arbeitswelten auch darüber Wissen aufzubauen, wie eine effektive Zusammenarbeit mit KI gelingen kann, verdient manch dubioser Trend eine genauere Betrachtung und heute soll es um den Hyperfokus auf Prompting gehen.
Prompting Engineering meint das Erstellen von Abfragen oder Eingaben, die KI-Modelle anweisen, möglichst genaue und relevante Ergebnisse zu produzieren. Prompt Engineering ist dabei zweifelsfrei wichtig, gleichzeitig aber eben sehr limitiert in seinem tatsächlichen Potential. Komplexere und auch ressourcenintensivere Techniken sind beispielsweise der Einsatz der populären Retrieval-Augmented-Generation-Architektur oder Model Finetuning. Beide bedingen, und das ist keine neue Erkenntnis innerhalb datenintensiver Projekte, eine hohe Datenqualität.
Der Hyperfokus auf Prompting kann zu falschen Vorstellungen darüber führen, welche wissenschaftlichen, praktischen und sozio-technischen Herausforderungen in Bezug auf den Einsatz von Generativer KI bestehen¹. Alleine beim praktischen Einsatz von LLMs wollen eine Vielzahl von Faktoren mitgedacht werden, die sich in Teilen pragmatisch lösen lassen, in der Regel aber eine strategische Entscheidung darstellen und einer gründlichen Prüfung bedürfen. Beispiele:
¹: Zweifelsfrei braucht es hier Expert:innen.
Die Kommerzialisierung esoterischen Wissens, das vermeintlich für die Erschließung des vollen Potenzials von LLMs unerlässlich ist, beutet Menschen aus, die wenig bis keine Erfahrung mit KI haben und die durch das Narrativ verunsichert werden, dass sie bald schon abgehängt und wegrationalisiert werden. Die Aufmerksamkeit wird so abgelenkt von substanziellen Herausforderungen im Bereich KI und auch von breiteren Debatten über strukturelle Probleme – etwa hinsichtlich dessen, wie umfassende digitale Fähigkeiten vermittelt werden können (Stichwort digital literacy). Technisch gesehen ist, wie oben beschrieben, in der Mehrheit der Anwendungsszenarien ein breites Methodenrepertoire unabdingbar.
¹: Für einen grundlegenden Überblick empfiehlt sich: https://llm-safety-challenges.github.io/challenges_llms.pdf
JULIA MASLOH
AI Solution Engineer
sequire technology