なぜ再起動が存在するのか(そしてあなたが思っている以上にそれを使用する理由) 「クラシック」LLMの相互作用は1つずつです: あなたは「持続可能性に関する記事を書いてください」と書きます。モデルは一般的な学校のエッセイで答えます。 あなたは「持続可能性に関する記事を書いてください」と書きます。モデルは一般的な学校のエッセイで答えます。 それはモデル問題ではない、それは . spec problem (最初の出力を見た後、改良されたプロンプトを再発行)は、以下からの実用的な橋です。 Re-prompting human intention → machine-readable instruction → usable output それは、「出力がある」から「この出力は正しく、構造化され、配送可能である」に到達する方法です。 Re-Prompting 定義 is the practice of その後、より良い結果を得るために再度実行します。 Re-prompting adjusting the prompt’s content, structure, or constraints after inspecting the model’s first response キーワード: It's 最初の出力は「答え」ではない。 . feedback-driven telemetry 小さな例 「気候変動について何か書こう」 Prompt v1: 一般的な概要なし、角度なし、観客に合わない。 Output: 「350~450単語の説明書を書く」 気候変動に関しては、以下を含む。 Prompt v2: UK secondary school students 二つの原因、二つの影響、三つの日常的な行動を生徒が行うことができ、四つ目は一句の行動呼びかけで終わる。 同じモデル 異なる結果 なぜなら、スペックが現実になったからだ。 なぜシングルプロンプトは失敗する(そして再プロンプトはしない) Single prompts assume you can fully predict what you need up front. That's sometimes true... until it's not. それは時として真実です。 Dimension Single Prompt Re-Prompting Interaction One-way Feedback loop Info base Only initial intent Intent + output defects Goal “Get an answer” “Get the right answer” Best for Simple asks Fine-grained or high-stakes output インタラクション 片道 フィードバックループ 情報ベース 初期意図のみ 意図+出力欠陥 ゴール 「Get A Answer」 「正しい答えを得る」 ベスト for シンプルな質問 Fine-grained or high-stakes output トップページ The Real Value: What Re-Prompting Buyes You シングル (1)入場制限の低下 You don't need to be a prompt wizard on day one. あなたはすぐに魔法使いになる必要はありません。 . iterate 2) Dynamic calibration for complex asks ブランドの声、製品マーケティング、技術的な書き方、ポリシーの概要 - これらは Re-prompting により、トーンと構造を迅速に調節できます。 moving targets (3)より一貫した生産 温度、サンプル、およびモデルのランダム性は、ドリフを引き起こす可能性があります。 (“no slang”, “use bullets”, “include acceptance criteria”) は、差異を減らします。 constraints いつ再起動するべきか?実践的なトリガーリスト すべての回答が別のラウンドに値するわけではありませんが、これらは: 1)出力はコアの目標を逃す 話題の話ですが、質問した理由を無視しています。 Signal: "Write selling points for a hiking watch whose key feature is イギリス人観光客を狙う」 Example ask: 72-hour battery エステティクスとベルト材料についての段落;バッテリーはほとんど言及されていません。 Bad output: あなたは「バッテリー + ウォーキング コンテキスト」を交渉できないようにしませんでした。 Why you re-prompt: (2)形式が間違っている あなたは機械的に使えるものを求めました、あなたはプロセスを手に入れました。 Signal: "Put these phone specs into a Markdown table with headers. これらの電話の仕様をヘッダー付きのマークダウンテーブルに置く。 」 Example ask: Model | RAM | Storage ナンバーリスト Bad output: フォーマットは明確でなければなりませんし、しばしばAの恩恵を受けることがあります。 . Why you re-prompt: mini example (3)論理的または概念的な誤りがある 誤った定義、矛盾、または「正しい響き」ですが、そうではありません。 Signal: “Explain Chain-of-Thought prompting with a maths example.”(「思考の連鎖を数学の例で示す」) Example ask: CoTは「直接答えを与える」という意味で、 「例」として。 Bad output: 2+3=5 あなたのプロンプトは定義をアンカーしなかったし、正しいコピーを提供しませんでした。 Why you re-prompt: 4) 短すぎるか長すぎるか あなたはステップを求めた、あるいは一文を得た、あるいは概要を求めた、あるいはエッセイを得た。 Signal: “detailed” and “short” are not instructions. They are vibes. Vibrations with . Why you re-prompt: structure and word limits The 5-Step Loop: Turn Re-Prompting into a System(5ステップループ:再推進をシステムに変える) Here is a framework that keeps iteration from becoming random thrashing. 次に、イタレーションがランダムなトライシングになるのを防ぐフレームワークがあります。 Step 1: Evaluate the output (with a 3-axis checklist) これらの3つの軸を毎回使用する: Axis What you’re checking Example failure Accuracy Does it solve the actual problem? Deletes the wrong rows when asked to handle missing values Format Is it structured as requested? No code comments / no table / wrong schema Completeness Did it cover every must-have point? Handles missing values but ignores outliers 精度 本当の問題を解決するのでしょうか。 欠けている値を処理するように要求された間違った行を削除します。 形式 要求された様に構造化されていますか? コードコメントなし / テーブルなし / 間違ったスケジュール 完全性 あらゆるポイントをカバーしたのでしょうか。 欠けている価値観を処理するが、外見を無視する プロ・ヒント:QAエンジニアが次のように「欠陥リスト」を書く: . Goal Drift / Format Break / Missing Points / Wrong Concepts / Verbosity STEP 2: Trace the defect back to the prompt ウィンドウ ほとんどの出力故障は、修正できる迅速な原因から発生します。 Defect Likely prompt cause Example Goal drift vague priorities didn’t state the selling point primary Format break format not explicit “organise this” ≠ “Markdown table with headers…” Logic error wrong / missing definition didn’t anchor the concept and example Too brief no structure requirement didn’t specify steps, length, sections ターゲット Drift 曖昧な優先順位 didn’t state the 販売ポイント メイン ブレイク形式 形式不明 “organize this” ≠ “Markdown table with headers...” 論理ミス 誤解/欠けている定義 コンセプトと例をアンカーしなかった。 短すぎる 構造要求なし ステップ、長さ、セクションを指定しませんでした。 大変な思考の変化: スペックを責める。 don’t blame the model first Step 3: Apply one of 4 high leverage adjustments. ステップ3:高レベルの調整の4つを適用します。 Strategy A: Add context + constraints (fixes vagueness / goal drift) 追加:視聴者、シナリオ、優先順位、禁止コンテンツ、必要ポイント エコの記事を書く » 「イギリス9年生のための400単語を書くこと、学校のリサイクルコンテキスト、行動可能な3つのヒント、フレンドリーなトーン、ジャーゴンなし、行動への呼びかけで終わる」 Before: After: 戦略 B: Make format executable (fixes format break) タイプ + スケジュール + 例 After prompt snippet: Return a Markdown table exactly like this: | Model | RAM | Storage | |---|---|---| | Example | 8GB | 128GB | 戦略C:例を追加または訂正(誤解を修正) モデルが混乱している場合、 . show it the pattern Example for Chain-of-Thought (correct pattern): 「サムはリンゴを5個持っていて、2個食べて3個買う」 5−2=3、3+3=6 答え:6 Strategy D: Control detail with structure + limits (fixes verbosity) セクション、ボール数、単語の制限、および「完了」がどう見えるかを指定します。 「Explain Few-Shot prompting in」 それぞれのステップ: マックス 」 Prompt snippet: 3 steps 1 sentence 20 words Step 4: Validate (then decide if you will iterate again) 再起動:同じ3つの軸に対して再スコア。 Stop when: ターゲットが達成され、 形式が正しいので、 大きな論理ミスはない。 「完璧」を追いかけないでください Chase . usable 3~5回繰り返し、5回以降に不満が残っている場合は、要件が不十分であるか、別のモデル/ツールが必要になる可能性があります。 Rule of thumb: ステップ5:勝利のテンプレート(二度とゼロから始めることはないように) 効率よく動作すると、Aとして冷凍します。 : prompt template 固定部品:指示、構造、フォーマットルール 変数 : 変数 : 変数 : 変数 : 変数 : 変数 Example: Python data-cleaning prompt template Generate Python code that meets this spec: 1) Goal: {goal} 2) Input: {input_description} 3) Requirements: - Use pandas - Handle missing values using {method} - Handle outliers using {outlier_rule} 4) Output rules: - Include comments for each step - End with 1–2 lines on how to run the script - Wrap the code in a Markdown code block これが、再誘導化合物の方法です:あなたはツールのように振る舞う誘導のライブラリを構築します。 A Full Iteration Walkthrough トップページ Let’s build something real: しかし、オペレーターのように 3 promo posts for a bubble tea brand ラウンド0:Prompt That Fails 「Sweet Sprout Bubble Tea」の記事一覧 Prompt: 繰り返し、ブレイク、ホックなし、プラットフォームのヒントなし。 Output: 評価 タグ:Vague Brand Fit フォーマット: No hashtags, No CTA 完全性:技術的には3ポスト、差別ゼロ ラウンド1:ブランド機能 + プラットフォーム形式を追加 Re-prompt: ブランド:低砂糖、0カロリーオプション タロボバミルクティー Taro Boba Milk Tea インスタグラム:Instagrammable Interior スタイル:エネルギー、エモジー、2~3ハッシュタグで終わる Differentiation: each post focuses on (1) taste, (2) photos, (3) low-cal 「今すぐ何かをやろう」というのが欠けている。 Output improves ラウンド2:アクショントリガーを追加(ロケーション + プロモーション) 我々は追加する: 場所:マンチェスター市内中心部 プロモーション:BOGOF 31 Octまで CTA: “come by after work / this weekend” 出力がデプロイ可能になる。 よくあるミス(そしてあなたの人生を無駄にしない方法) ミス1:すべてを一度に変える You can't learn what worked if you mutate the entire prompt each time. あなたは毎回全体のプロンプトを変換すると何が機能したかを学ぶことはできません。 イテリアンで one major variable エラー2:「モデルは悪い」あなたのデフォルト診断として ほとんどの場合、あなたのプロンプトは指定しませんでした: 優先順位 フォーマット 制限 例 成功基準 ミス3:Infinite iteration chasing perfection(完璧を追う無限のイーテレーション) 停止ルールを設定します. 正しく、使用可能な場合は、それを送信してください。 ミス4:最後のプロンプトを保存しない タスクが繰り返される場合、テンプレートは素晴らしい一度の回答よりも価値があります。 エラー5:同じプロンプトをプラットフォーム間でコピーする Hacker News で機能するものは TikTok で失敗します。 スピードで platform constraints Tooling and Workflow Tips について “defect → fix” チットシートを保持する(フォーマットが欠けている → shema + example を追加; repeat → enforce distinct angles; concept wrong → add definition + exemplar) あなたが50を大量生成する前に3〜5の出力でテストします。 テンプレートシステム(Notion、Obsidian、あるいはGit repo)でメモをストレージします。 If you’re working in a team: track prompt versions like code. 最終取 Re-prompting is not a trick. それはワークフローです。 要望書が書かれている場合、 — モデルの出力をエラーログとして使用します. あなたがそれを体系的に行うとき、あなたは「ChatGPTのものを尋ねる」をやめ、構築を開始します。 実際に船を造ることができます。 re-prompting is debugging those requirements reliable text-and-code generators