Es findet sich wohl kaum jemand, der aktuell noch keine Experimente mit Sprachmodellen wie LLMs (Large Language Models) gemacht hat. Die Fähigkeiten, mit denen die Modelle natürliche Sprache verstehen und zum Beispiel Text generieren, sind beeindruckend. Trotzdem kann es eine Herausforderung sein, die gewünschten Antworten oder Aufgaben von ihnen zu erhalten.
Hier kommt Prompt Engineering ins Spiel – auch Prompt Design oder Casting genannt. In diesem Artikel werden wir das Prompt Engineering genauer betrachten und wertvolle Tipps teilen, damit du leichter Prompts schreiben kannst und bessere Ergebnisse erzielst.
Prompt Engineering: Was ist das eigentlich?
Prompt Engineering im Kontext von KI und Sprachmodellen meint das Präsentieren von Daten und Erstellen von Anweisungen oder Fragen, die Nutzer an ein Sprachmodell wie GPT-3 etc. richten. Dabei ist das Ziel, die passenden Antworten wie automatisch von einem Sprachmodell generieren zu lassen. Je präziser und klarer wir die Formulierung gestalten, umso besser können wir dem Sprachmodell helfen, die besten Ergebnisse zu erzielen. Denn die Modelle reagieren darauf, wie wir mit ihnen interagieren.
Wie wir mit Sprachmodellen interagieren können, hat sich über die Zeit verändert: Früher war es schwieriger, die passenden Anfragen an ein Sprachmodell zu stellen und brauchte immer Unterstützung durch Expert:innen. Mit der Einführung leistungsstärkerer LLMs wurden jedoch nicht nur komplexere Aufgabenstellungen möglich, sondern auch interaktive Dialoge in natürlicher Sprache. Schaut man sich ChatGPT an, kann heute eigentlich jeder Anfragen stellen und Antworten erhalten – wenn auch nicht immer brauchbar.
Warum nicht jeder Prompt ans Ziel führt
Um die Möglichkeiten der neuen Modelle voll auszuschöpfen, ist ein Blick hinter die Kulissen der Technologie hilfreich. Bevor wir also zu den Tipps für das Prompting kommen, ist es wichtig zu verstehen, wie Antworten generiert werden:
Aktuelle Sprachmodelle sind keine Wissensmodelle und sie antworten statistisch, basierend auf den gelernten Wahrscheinlichkeiten und Mustern aus dem Training, was dem Prompt nahe kommt. Sie können also nur auf das Wissen und die Informationen zugreifen, die während des Trainingsprozesses in den Texten enthalten waren. Es ist also egal, wie gut ein Prompt ist: Nutzer:innen müssen ihre Erwartungen anpassen und verstehen, dass Generative-AI-Lösungen nicht unbedingt die Wahrheit sagen und nur so gut sein können wie ihre Trainingsdaten. Halluzinationen und Erfindungen sind häufig, wenn entsprechende Daten oder das Vorwissen fehlt.
Was zeichnet einen guten Prompt aus, um zum Beispiel ChatGPT sinnvoll nutzen zu können?
Wie können Nutzer:innen also möglichst gute Anfragen stellen? Schritt Nummer eins ist sicherlich, die Ansprüche an die eigene Eingabe zu steigern. Wer nicht weiß, was er eigentlich erreichen möchte, also keine Vision hat, kommt selten auch zufriedenstellend ans Ziel. Denn erst mit Kontext und Daten, die dem Sprachmodell Ziele verdeutlichen und auch Lernmaterial liefern, können Sprachmodelle ans Werk gehen.
Prompts schreiben: Darauf können Nutzer:innen achten
Nebenberuflich Prompt Engineer werden?
Da Sprachmodelle mit uns interagieren, entscheiden also Prompts über Qualität und Nutzbarkeit der Ergebnisse. Das kann ganz schön komplex sein. Bedeutet das, dass Redakteur:innen in Newsrooms und Co. nun zu Expert:innen für Prompt Engineering werden müssen, um sinnvoll mit der KI arbeiten zu können? Müssen sie neben ihren eigentlichen Jobs auch noch Sprachmodelle bis ins Detail verstehen?
Das ist zum Glück nicht notwendig. Zum einen, weil aktuell sogar ganz neue Stellen geschaffen und ausgeschrieben werden, bei denen die Kandidat:innen einen Background in Data Science oder Machine Learning haben.
Und zum anderen, weil immer mehr moderne Tools und Lösungen entstehen, die die Arbeit mit Sprachmodellen deutlich vereinfachen.
Bei Convit übernehmen wir das Prompt-Schreiben für unsere Kund:innen
Auch wir bauen GenerativeAI in unsere Redaktionssoftware ein. Und weil wir den Zugang zu innovativen Möglichkeiten so einfach wie möglich gestalten möchten, stellen wir uns bei Convit immer die Frage, wie wir Akzeptanz schaffen. Wie kann die Technologie Redaktionen unterstützen und für Mehrwert sorgen, ganz ohne Frustration?
- Als erstes gilt für uns: Generative AI in den Medien? Ja, unbedingt. Aber nur als Unterstützungsfunktion. KI als Vorschlag anbieten, damit Journalisten sie einfach bei ihrer Arbeit einsetzen können – mit all ihren Vorteilen.
- Und zweitens gilt wie bei jedem Software-Produkt oder einer neuen Funktion: Sie muss einfach und intuitiv zu nutzen sein, ohne viel Zeit für eine Schulung oder Einarbeitung aufwenden zu müssen.
Das heißt: Wir können in Newsmind Stories nicht einfach so eine Chat-Funktion wie ChatGPT anbieten. Es muss im Arbeitsalltag so einfach wie der Klick eines Buttons sein und schnell große Akzeptanz finden. Also übernehmen wir das Prompting und die Zusammenstellung des notwendigen Datenkontext im Hintergrund. Für User:innen sind die verschiedenen Funktionen von „Artikel zusammenfassen“ über „Tweet generieren“ bis „Faktencheck“ nur einen Klick entfernt. Und damit ist Mehrwert nur einen Klick entfernt.
Unser letzter Tipp: Keine guten Ergebnisse ohne menschliche Überprüfung
Egal ob professioneller Prompt Engineer oder Journalist:in: Wer Generative AI einsetzt, muss die Ergebnisse stets überprüfen und kritisch hinterfragen. Denn die Qualität der Ergebnisse hängt nicht nur von deinem Prompt ab, sondern immer auch von der Trainingsdatenbasis und den spezifischen Fähigkeiten des Sprachmodells. Frage dich also: Entspricht der Output deinen Anforderungen? Stimmen die Fakten? Gibt es Vorurteile? Und mache dir bewusst, dass die Verantwortung bei dir liegt.