モデルの出力結果を適切にコントロールするためには、プロンプトの設計に加えて、パラメータの調整も非常に重要です。
同じプロンプトであっても、設定されたパラメータの内容によって、生成される応答は大きく変化します。
パラメータをうまく調整することで、次のような特性を持つ出力を得ることが可能になります:
•
より創造的なアイデアを生み出す
•
多様性のある応答を生成する
•
より正確で安定的な情報を提供する
以下の各パラメータの説明を参考にしながら、タスクやユースケースに適した設定をぜひお試しください。
Top P(確率分布の累積制御)
Top P は、モデルが生成するテキストの**ランダム性(多様性)**を調整するためのパラメータです。
これは「nucleus sampling(核サンプリング)」という手法に基づいており、以下のように動作します。
● 動作の仕組み:
モデルは、各単語の出現確率に基づいて、確率の高い単語から順に候補を累積していきます。
この累積値が指定された Top Pの閾値(例:0.9) に達するまでの語群の中から、ランダムに次の単語を選択します。
● 設定値による効果:
•
Top P = 1.0(最大)
→ 非常に多様性が高く、創造的・意外性のある出力が得られやすくなります。
•
Top P = 0.5〜0.8(中程度)
→ 一定の多様性を維持しながらも、一貫性や安定性を重視した出力が期待できます。
•
Top P = 0.1〜0.3(低め)
→ 非常に限られた候補の中から出力されるため、より決まった・予測可能な結果になります。
Maximum Length(最大長)
Maximum Length は、モデルが生成するトークン数の上限を設定するためのパラメータです。
このパラメータを使うことで、出力が長くなりすぎるのを防いだり、トークン使用量(コスト)を管理することができます。
● 使用例:
たとえば、Maximum Length を 100 に設定した場合、
モデルは 100トークン以内で応答を出力します。
これは単語数とは異なり、トークン単位での長さ制限です。
● 注意点:
•
モデルごとにトークンの数え方や構造(トークナイザー仕様)が異なります。 例:日本語・英語・記号の扱いや、1単語あたりのトークン分割方式など。
•
ご利用のモデルに応じて、推奨値や最大制限が異なりますので、必ず各モデルの仕様をご確認ください。
Temperature(創造性と予測性の調整)
Temperature(温度)は、モデルが生成するテキストの多様性(創造性)と予測可能性のバランスを調整するためのパラメータです。
この値を変えることで、モデルがどれほど「冒険的」または「保守的」に応答するかをコントロールできます。
● 設定値による挙動の違い:
•
低い値(例:0.3〜0.5)
→ 確率の高い語が優先され、保守的で一貫性のある出力になります。
→ 正確性・安定性が求められる業務タスクに最適です。
•
高い値(例:1.0以上)
→ ランダム性が高まり、創造的で多様な応答が生まれやすくなります。
→ ストーリー生成やアイデア出しなどに向いています。
ご注意:
•
Temperatureを**極端に高く(例:1.5以上)**設定すると、 文脈と無関係な単語や意味の通らない出力が増える可能性があります。
•
Top Pと組み合わせて調整することで、より細かい出力制御が可能です。
Frequency Penalty(語の繰り返し抑制)
Frequency Penalty は、モデルが同じ単語や表現を何度も繰り返すのを防ぐための設定です。
すでに登場した語の「出現回数(frequency)」に応じて、同じ語が再び選ばれにくくなります。
これにより、文章にバリエーションが生まれ、より自然で読みやすい出力が得られます。
● 設定による違い
•
高く設定する(例:0.8〜1.0)
→ 同じ言葉の繰り返しを避け、語彙が豊富な多様な文章になります。
→ 文章作成や創造的なコンテンツに向いています。
•
低く設定する(例:0.0〜0.3)
→ 同じ言葉をそのまま使うことが許され、安定した定型表現が出やすくなります。
→ よくある質問への応答や、業務手順説明などに適しています。
ご注意
•
値を高くしすぎると、表現が回りくどくなる場合があります。
•
より自然な応答を得たいときは、Top P や Temperatureと一緒に調整するのがおすすめです。
Presence Penalty(既出語句の再出現抑制)
Presence Penalty は、一度でもすでに使われた単語やフレーズが、再び出てくるのを防ぐためのパラメータです。
すでに登場した語句に対して、**出現回数に関係なく一律にペナルティ(減点)**を与えます。
パラメータ | ペナルティのかけ方 | 向いている用途例 |
Frequency Penalty | 出現回数が多いほど強く抑制される | 同じ語句の繰り返し防止 |
Presence Penalty | 一度でも登場した語句に等しくペナルティを与える | 初出語をなるべく多く使いたい場合 |
● 設定の効果と使いどころ
•
値を高く設定すると
→ すでに使われた語が出てきにくくなり、新しい語や表現がより多く登場します。
→ 創造性や多様性が求められる文章生成に効果的です。
•
値を低く設定(または0)すると
→ 同じ語が再び出てくることを許容し、安定した出力になります。
→ FAQや業務文書など、用語の一貫性が重要なシーンに適しています。
● 使用目的別のおすすめ設定値
利用シーン | 推奨 Presence Penalty |
新しい表現を積極的に使いたい場合 | 0.8〜1.0 |
安定した用語・言い回しを優先したい | 0.0〜0.3 |
言い換えや多様なアイデアの生成 | 0.5〜0.8 |
補足:
•
Presence Penalty は、「一度使った言葉はなるべく繰り返さないでね」というモデルへの指示と考えるとイメージしやすいです。
•
Presence Penalty と Frequency Penalty は役割が類似しているため、基本的にはどちらか一方のみを調整するのがおすすめです。目的に応じて、どちらがより適しているかを判断しながら設定してください。
Stop Sequences(生成停止トリガー)
Stop Sequences は、モデルがテキストを生成中に、指定した語句が出現した時点で出力を停止するための設定です。
● 使用例:
•
「ありがとうございます」や「END.」などを指定
→ 応答の終わり方を統一したり、出力を制限したい場合に便利です。
補足:
•
複数の語句を設定可能
•
完全一致で動作するため、記号や改行も含めて指定が必要な場合があります
Seed(再現性の確保)
Seed は、同じ入力と設定で同じ出力を再現するための乱数の初期値です。
● 使用目的:テストや比較検証で、一貫した応答結果を得たいときに便利です。
● 設定方法:任意の整数(例:42)を指定して使用します。
モデル別対応パラメータ
使用するモデルによって、対応しているパラメータは異なります。
設定可能な項目や動作に差があるため、必ず各モデルのパラメータ仕様書をご確認ください。
