ChatGPT sagen, dass es vorsichtig sein soll

Ich habe gerade gelernt, dass man ChatGPT in unterschiedliche Modis verstetzen kann, damit es nicht alles mit dem Brustton der Überzeugung sagt. Es gibt folgende Modi in die Man ChatGPT 5 versetzen kann (erklärt durch ChatGPT selbst)

Welche Modi gibt’s?

1) Balanced (Standard) – „klar, aber mit Augenmaß“

  • WofĂĽr: Meiste Fragen.

  • Wie klingt’s: verständlich, nennt Annahmen & Unsicherheiten.

  • Beispiel: „Wahrscheinlich passt Modell A besser – Annahme: ihr wollt wenig Wartung. (Vertrauensgrad: mittel)“

  • Starten mit: balanced mode

2) Cautious – „extra vorsichtig“

  • WofĂĽr: Heikle Themen, fehlende Daten, hohe Risiken.

  • Wie klingt’s: mehr „kommt darauf an“, klare Caveats, ggf. Alternativen.

  • Beispiel: „Es könnte funktionieren, wenn X erfĂĽllt ist. Sonst lieber Option B. (Vertrauensgrad: niedrig)“

  • Starten mit: cautious mode oder vorsichtig

3) Assertive – „knapp & entschieden“

  • WofĂĽr: Wenn du eine klare Empfehlung willst und Risiken ĂĽberschaubar sind.

  • Wie klingt’s: direkt, priorisiert, To-Dos.

  • Beispiel: „Nimm Option B. Schnellster Weg, geringstes Risiko. Nächste Schritte: 1…2…3.“

  • Starten mit: assertive mode oder entschieden

4) Red-Team – „stärkstes Gegenargument“

  • WofĂĽr: Blinde Flecken finden, Vorhaben stress-testen.

  • Wie klingt’s: freundlich-kritisch, nennt größtes Risiko + Mitigation.

  • Beispiel: „Gegenargument: Abhängigkeit von Anbieter X. Risiko: Lock-in. Gegenzug: Exit-Plan + Datenexport testen.“

  • Starten mit: red-team

5) Assumptions-first – „Annahmen zuerst“

  • WofĂĽr: Wenn wir schnell klären wollen, worauf meine Antwort basiert.

  • Wie klingt’s: Liste der Annahmen vorab, dann Empfehlung.

  • Beispiel: „Annahmen: 1) Budget < 5k, 2) Team ohne Admin. → Empfehlung: …“

  • Starten mit: assumptions-first oder annahmen zuerst

1 „Gefällt mir“

Das halte ich für eine Halluzination. Natürlich kann man ChatGPT entsprechend prompten, aber ich glaube nicht, dass tatsächlich unterschiedliche Modi eintrainiert wurden. Frag mal nach Quellen.

Ich bekomme jetzt tatsächlich eine Zuverlässigkeit nach den Antworten angezeigt. (confidence: medium)

Am Ende sind wir bei ChatGPT & Co. der gleichen Intransparenz ausgeliefert, wie Antworten entstehen, als würden Menschen dahinter sitzen. Für mich zumindest wirkt das völlig unberechenbar, fast schon menschlich chaotisch :zany_face:

2 „Gefällt mir“

Wir denken aktuell darüber nach ob wir LLM’s auch bei uns im Rechenzentrum betreiben können. Das hilft zwar nicht bei der Transparenz aber dabei wohin unsere Daten abfließen. @Andreas_Kunar hat da bereits Gedanken dazu.

Transparent wären diese LLM’s ja (Sourcecode verfügbar) aber ich weiß nicht ob das tatsächlich weiterhilft.

2 „Gefällt mir“

Wo hast du das eingestellt? Ich sehe bei mir nur Persönlichkeiten zum Auswählen.

Gut erkannt. Nachdem LLMs ja die menschliche Gehirnstruktur/neuronelen Netze (teilweise) simulieren, ist das nicht anders zu erwarten. :slight_smile: