Skip to main content

Es findet sich wohl kaum jemand, der aktuell noch keine Experimente mit Sprachmodellen wie LLMs (Large Language Models) gemacht hat. Die Fähigkeiten, mit denen die Modelle natürliche Sprache verstehen und zum Beispiel Text generieren, sind beeindruckend. Trotzdem kann es eine Herausforderung sein, die gewünschten Antworten oder Aufgaben von ihnen zu erhalten.

Hier kommt Prompt Engineering ins Spiel – auch Prompt Design oder Casting genannt. In diesem Artikel werden wir das Prompt Engineering genauer betrachten und wertvolle Tipps teilen, damit du leichter Prompts schreiben kannst und bessere Ergebnisse erzielst.

Prompt Engineering: Was ist das eigentlich?

Prompt Engineering im Kontext von KI und Sprachmodellen meint das Präsentieren von Daten und Erstellen von Anweisungen oder Fragen, die Nutzer an ein Sprachmodell wie GPT-3 etc. richten. Dabei ist das Ziel, die passenden Antworten wie automatisch von einem Sprachmodell generieren zu lassen. Je präziser und klarer wir die Formulierung gestalten, umso besser können wir dem Sprachmodell helfen, die besten Ergebnisse zu erzielen. Denn die Modelle reagieren darauf, wie wir mit ihnen interagieren.

Wie wir mit Sprachmodellen interagieren können, hat sich über die Zeit verändert: Früher war es schwieriger, die passenden Anfragen an ein Sprachmodell zu stellen und brauchte immer Unterstützung durch Expert:innen. Mit der Einführung leistungsstärkerer LLMs wurden jedoch nicht nur komplexere Aufgabenstellungen möglich, sondern auch interaktive Dialoge in natürlicher Sprache. Schaut man sich ChatGPT an, kann heute eigentlich jeder Anfragen stellen und Antworten erhalten – wenn auch nicht immer brauchbar.

Warum nicht jeder Prompt ans Ziel führt

Um die Möglichkeiten der neuen Modelle voll auszuschöpfen, ist ein Blick hinter die Kulissen der Technologie hilfreich. Bevor wir also zu den Tipps für das Prompting kommen, ist es wichtig zu verstehen, wie Antworten generiert werden:

Aktuelle Sprachmodelle sind keine Wissensmodelle und sie antworten statistisch, basierend auf den gelernten Wahrscheinlichkeiten und Mustern aus dem Training, was dem Prompt nahe kommt. Sie können also nur auf das Wissen und die Informationen zugreifen, die während des Trainingsprozesses in den Texten enthalten waren. Es ist also egal, wie gut ein Prompt ist: Nutzer:innen müssen ihre Erwartungen anpassen und verstehen, dass Generative-AI-Lösungen nicht unbedingt die Wahrheit sagen und nur so gut sein können wie ihre Trainingsdaten. Halluzinationen und Erfindungen sind häufig, wenn entsprechende Daten oder das Vorwissen fehlt.

Dennoch kann man mithilfe eines guten Prompt Designs die Qualität der Ergebnisse beeinflussen.

Was zeichnet einen guten Prompt aus, um zum Beispiel ChatGPT sinnvoll nutzen zu können?

Wie können Nutzer:innen also möglichst gute Anfragen stellen? Schritt Nummer eins ist sicherlich, die Ansprüche an die eigene Eingabe zu steigern. Wer nicht weiß, was er eigentlich erreichen möchte, also keine Vision hat, kommt selten auch zufriedenstellend ans Ziel. Denn erst mit Kontext und Daten, die dem Sprachmodell Ziele verdeutlichen und auch Lernmaterial liefern, können Sprachmodelle ans Werk gehen.

Prompts schreiben: Darauf können Nutzer:innen achten

1

Führende Fragen vermeiden

Stelle sicher, dass deine Fragen neutral und nicht führend sind, um das Modell nicht schon vorher in eine bestimmte Richtung zu lenken. Nur so kannst du unvoreingenommene Antworten erhalten.
2

Klare und präzise Prompts verwenden

Formuliere deine Prompts eindeutig und ohne Mehrdeutigkeiten. Gebe alle notwendigen Informationen und klare Anweisungen oder Fragen, um Missverständnisse zu vermeiden. Je genauer dein Prompt ist, desto wahrscheinlicher erhältst du die gewünschte Antwort.
3

Mit Kontext und Anweisungen das Modell vorbereiten

Egal ob Bild- oder Textgenerierung: Gib dem Sprachmodell ausreichend Kontext und Anweisungen, damit es die Aufgabe versteht, eine klare Richtung bekommt und so gewünschte Ergebnisse erzielen kann. Dazu gehören relevante Informationen und Beispiele ebenso wie Formatierungsanweisungen oder Stilangaben. Je präziser, desto besser die Generierung.
4

Outlining nutzen

Wenn du zum Beispiel längere Texte generieren möchtest, kannst du einem Sprachmodell beispielsweise die Hauptpunkte oder Abschnitte angeben, die im Text enthalten sein sollen. Mit klaren Anweisungen, welche Informationen in jedem Abschnitt behandelt werden sollen, kommt eine generative AI näher an dein gewünschtes Ergebnis.
5

Mit Folge-Prompts experimentieren

Verwende verschiedene Prompts, also unterschiedliche Formulierungen oder auch ein anderer Kontext, um auf das erste Ergebnis aufzubauen und es zu verfeinern. Denn Prompt Engineering erfordert oft mehrere Versuche, um die gewünschten Ergebnisse zu erzielen.

Nebenberuflich Prompt Engineer werden?

Da Sprachmodelle mit uns interagieren, entscheiden also Prompts über Qualität und Nutzbarkeit der Ergebnisse. Das kann ganz schön komplex sein. Bedeutet das, dass Redakteur:innen in Newsrooms und Co. nun zu Expert:innen für Prompt Engineering werden müssen, um sinnvoll mit der KI arbeiten zu können? Müssen sie neben ihren eigentlichen Jobs auch noch Sprachmodelle bis ins Detail verstehen?

Das ist zum Glück nicht notwendig. Zum einen, weil aktuell sogar ganz neue Stellen geschaffen und ausgeschrieben werden, bei denen die Kandidat:innen einen Background in Data Science oder Machine Learning haben.

Und zum anderen, weil immer mehr moderne Tools und Lösungen entstehen, die die Arbeit mit Sprachmodellen deutlich vereinfachen.

Bei Convit übernehmen wir das Prompt-Schreiben für unsere Kund:innen

Auch wir bauen GenerativeAI in unsere Redaktionssoftware ein. Und weil wir den Zugang zu innovativen Möglichkeiten so einfach wie möglich gestalten möchten, stellen wir uns bei Convit immer die Frage, wie wir Akzeptanz schaffen. Wie kann die Technologie Redaktionen unterstützen und für Mehrwert sorgen, ganz ohne Frustration?

  1. Als erstes gilt für uns: Generative AI in den Medien? Ja, unbedingt. Aber nur als Unterstützungsfunktion. KI als Vorschlag anbieten, damit Journalisten sie einfach bei ihrer Arbeit einsetzen können – mit all ihren Vorteilen.
  2. Und zweitens gilt wie bei jedem Software-Produkt oder einer neuen Funktion: Sie muss einfach und intuitiv zu nutzen sein, ohne viel Zeit für eine Schulung oder Einarbeitung aufwenden zu müssen.

Das heißt: Wir können in Newsmind Stories nicht einfach so eine Chat-Funktion wie ChatGPT anbieten. Es muss im Arbeitsalltag so einfach wie der Klick eines Buttons sein und schnell große Akzeptanz finden. Also übernehmen wir das Prompting und die Zusammenstellung des notwendigen Datenkontext im Hintergrund. Für User:innen sind die verschiedenen Funktionen von „Artikel zusammenfassen“ über „Tweet generieren“ bis „Faktencheck“ nur einen Klick entfernt. Und damit ist Mehrwert nur einen Klick entfernt.

Unser letzter Tipp: Keine guten Ergebnisse ohne menschliche Überprüfung

Egal ob professioneller Prompt Engineer oder Journalist:in: Wer Generative AI einsetzt, muss die Ergebnisse stets überprüfen und kritisch hinterfragen. Denn die Qualität der Ergebnisse hängt nicht nur von deinem Prompt ab, sondern immer auch von der Trainingsdatenbasis und den spezifischen Fähigkeiten des Sprachmodells. Frage dich also: Entspricht der Output deinen Anforderungen? Stimmen die Fakten? Gibt es Vorurteile? Und mache dir bewusst, dass die Verantwortung bei dir liegt.

Weitere interessante Artikel, die du nicht verpassen solltest

Blog

OKR-Methode im Medienhaus: Zielgerichtet arbeiten

In der dynamischen Business-Welt sind Management-Methoden unerlässlich, um Ziele zu erreichen und erfolgreicher zu sein.…
Blog

Newsroom und dann? Wie sich effiziente Redaktionen organisieren

Ökonomisches und nachhaltiges Wirtschaften ist eng mit dem Schlagwort „Effizienz“ verbunden. Das gilt auch für…
Girls' Day 2024 – Gemeinsam kreativ! Wir bauen eine eigene Website und präsentieren sie live im Netz
Blog

Rückblick auf den Girls Day 2024

Girls' Day 2024 – Ein Tag voller Entdeckungen Am 25. April haben wir unsere Türen…