Mit KI arbeiten statt nur prompten – warum Kontext oft wichtiger ist als der perfekte Prompt

Mit KI arbeiten statt nur prompten – warum Kontext oft wichtiger ist als der perfekte Prompt

Es gibt eine Vielzahl von LLMs, also KI-Modellen, aber letztlich ist die Arbeit mit ihnen oft ähnlicher, als man anfangs denkt. Andere mögen das anders sehen, aber meine Philosophie ist, mich nicht in jedem kleinen Detail zu verlieren, sondern kreative Wege zu suchen und wenn möglich Abkürzungen zu finden. Das geht manchmal leichter als gedacht. Und manches Mal packt man sich an den Kopf, wenn man stundenlang an einem Super-Prompt gefeilt hat, nur um dann festzustellen, dass ein kurzer, menschlich formulierter Prompt, eher wie grob erklärte Idee als wie Präzisionsbefehl, plötzlich das deutlich bessere Ergebnis liefert.

Das ist für mich keine Einbildung, sondern oft genug genau so passiert. Deshalb schreibe ich meist mit GPT, mit dem ich hauptsächlich arbeite, eher wie mit einem Entwicklungspartner als wie mit einer Suchmaschine oder einem reinen Befehlsempfänger. Nicht weil ich KI vermenschliche, sondern weil sie darauf trainiert ist, aus Sprache, Kontext und Gewichtungen herauszulesen, was ein Mensch eigentlich will. Das kann man über harte Regeln erreichen oder indem man Kontext schafft und sich verständlich macht. Aus meiner Sicht sind das zwei grundverschiedene Wege. Ich nutze beide, je nachdem, was ich erreichen will. Oft ist die beste Arbeitsweise eine Mischform daraus.

Ein harter Prompt mit klarer, fast befehlsartiger Struktur, mit Negativregeln und sauberer Eingrenzung, führt oft dann besser zum Ziel, wenn man etwas sehr Konkretes vor Augen hat oder eine Aufgabe so eng wie möglich fassen will. Wenn man sich aber in einem Entwicklungsprozess befindet, in dem eine Idee überhaupt erst entsteht, ist es oft sinnvoller, der KI zwar die eigenen Ansprüche und Erwartungen klarzumachen, aber nicht alles vorab zuzunageln. Ich führe dann regelrechte Unterhaltungen darüber und frage die KI auch nach ihrer Sicht auf etwas. Viele haben das gar nicht auf dem Schirm und behandeln KI eher wie eine Suchmaschine. Dabei bekommt man gerade dort manchmal eine neue Perspektive auf ein Problem.

Dazu gehört auch, dass Kontext oft viel wichtiger ist, als viele denken. Wer KI wie eine Suchmaschine benutzt und nur fragt: „Freizeittipps in Berlin“, bekommt meist brauchbare, aber eher generische Antworten. Wer stattdessen gesprächsartig erzählt, was wirklich Sache ist, also zum Beispiel Alter, Stimmung, Vorlieben, Budget oder worauf man gar keine Lust hat, bekommt oft etwas, das sehr viel näher an der eigenen Realität liegt. Je mehr echter Kontext da ist, desto passender wird die Antwort. Genau deshalb funktioniert Gesprächsform oft besser als trockene Stichwortlisten.

Ich habe es für mich einmal so formuliert: Stell die Frage nach der Frage, nicht nur nach der Antwort. Das klingt erst einmal etwas schief, weil es natürlich am Ende trotzdem um Antworten geht. Gemeint ist aber etwas anderes. Viele wollen möglichst schnell eine richtige Lösung, investieren aber zu wenig Energie in die eigentliche Fragestellung. Dann liegt es in der Natur der Sache, dass die Antwort nur so gut sein kann wie die Frage, die man gestellt hat.

Man darf den Antworten von KI außerdem nicht blind vertrauen, schon gar nicht der ersten. Sie zeigt einem oft zuerst den naheliegenden, vorgesehenen oder wahrscheinlichsten Weg, aber zu selten den interessanteren Weg um die Ecke. Ich hatte das selbst, als ich GPT gefragt habe, ob sich angelegte GPTs mit lokalen Tools verbinden lassen. Die Antwort war erst einmal: ja, in bestimmten Richtungen geht das. Als ich dann weitergefragt habe, ob sich so etwas auch anders herum denken lässt, also ob ein lokales Tool zum Beispiel Browser-GPT für bestimmte Aufgaben einspannen und Ergebnisse zurückholen könnte, etwa um API-Kosten zu sparen, hieß es sinngemäß erst: nein, dafür ist es nicht gedacht.

Das akzeptiere ich aber nicht einfach. Ich komme aus der Demoszene, und dort ging es sehr oft genau darum, Dinge mit Hard- und Software zu tun, für die sie nie gedacht war. Erst als ich auf dieser Ebene weitergedrückt habe und nicht nur wissen wollte, was vorgesehen ist, sondern was real möglich ist, kamen plötzlich doch Lösungen. Genau das meine ich: KI zeigt einem reale Möglichkeiten außerhalb des Standards nur gelegentlich von selbst. Oft muss man sie erst dazu zwingen, weiter zu denken.

Daran ist KI nicht ganz unschuldig. Der Tonfall ist oft so, als läge die perfekte Lösung schon auf dem Tisch. Psychologisch führt das schnell dazu, dass man weniger hinterfragt, ob es nicht noch einen besseren, einfacheren oder kreativeren Weg gäbe. Ich weiß nicht, wie viele Stunden ich schon mit Problemen verbracht habe, weil ich dachte, den richtigen Weg längst zu kennen, bis mir irgendwann einfiel, einfach mal zu fragen: Geht das auch einfacher? Oder: Geht das auch besser? Genau dort wird es oft interessant.

Man muss außerdem bedenken, dass KI oft zum Naheliegenden und Wahrscheinlichen tendiert. Wenn eine bestimmte Art Lösung im Trainingsmaterial oft vorkam, dann bekommt man genau die auch gern zuerst serviert, es sei denn, man fragt anders, schiebt den Blickwinkel bewusst um oder stellt das Problem noch einmal auf links. Genau dort verlässt man die Mittelmäßigkeit.

Langer Rede kurzer Sinn: Ich stehe mit kopacek.de noch am Anfang. Deshalb gibt es hier fürs Erste nur ein paar Gedanken und Kurztipps von mir. Mittelfristig wirst du hier aber deutlich ausführlichere Inhalte finden, mit Beispielprompts, konkret beschriebenen kreativen Workflows und sicher auch einigen Wegen, die nicht ganz dem Standard entsprechen. Denn wenn ich in meiner Arbeit mit KI eines gelernt habe, dann das: Oft ist nicht die erste Antwort die interessante, sondern die, die erst dann kommt, wenn man aufhört, das Offensichtliche für die Grenze des Möglichen zu halten.

Wenn ein Ablauf mit KI unnötig Zeit frisst

Wenn mich ein Schritt immer wieder nervt, dann ist der Ablauf meist einfach nicht gut gebaut. Vielleicht sind zu viele Zwischenschritte drin, vielleicht ist das falsche Tool im Einsatz, vielleicht passt die Reihenfolge nicht. So etwas ignoriere ich nicht gern, weil genau dort oft die meiste Zeit verloren geht.

Die eigentliche Frage finden, bevor man überhaupt promptet

Viele KI-Antworten bleiben nicht deshalb mittelmäßig, weil das Modell zu wenig kann, sondern weil die Frage davor schon schief war. Wer nur schnell irgendetwas eintippt, bekommt oft auch nur eine schnelle Standardantwort zurück. Erst wenn klar ist, was eigentlich gelöst werden soll, wird die Antwort brauchbar.

Gute KI-Ergebnisse entstehen selten beim ersten Versuch

Ich halte nicht viel davon, den ersten Treffer gleich für die Lösung zu halten. Meist wird etwas erst dann wirklich gut, wenn man vergleicht, nachschärft, wieder verwirft und noch einmal anders draufschaut. Genau dadurch trennt sich oft brauchbarer Output von Zeug, das nur kurz gut aussieht.

Bilder helfen nicht nur bei der Optik, sondern auch beim Bauen

Ein Bild ist für mich nicht nur etwas, das am Ende nett aussieht. Es kann Farben vorgeben, eine Oberfläche stimmiger machen oder sogar eine Richtung für ein Tool liefern, wenn man sauber hinschaut. Oft steckt in einem Bild mehr praktische Information, als man im ersten Moment denkt.

Weniger Klicks und weniger Ballast machen Workflows besser

Mich interessieren keine Abläufe, die groß wirken, aber in Wahrheit nur aufblähen. Wenn etwas unnötig klickt, bremst oder nur beschäftigt, gehört es meist raus. Ein Workflow wird nicht besser, weil er mehr Schritte hat, sondern weil am Ende nur das übrig bleibt, was wirklich etwas bringt.