Ollama API (日本語)
  1. 補完を生成する
Ollama API (日本語)
  • エンドポイント
  • コンベンション
  • 補完を生成する
    • 概要
    • リクエストの生成 (ストリーミング)
      POST
    • リクエスト(ストリーミングなし)
      POST
    • リクエスト(サフィックス付き)
      POST
    • リクエスト(構造化された出力)
      POST
    • リクエスト(JSON モード)
      POST
    • リクエスト(画像付き)
      POST
    • リクエスト(Rawモード)
      POST
    • リクエスト(再現可能な出力)
      POST
    • リクエストを生成する(オプション付き)
      POST
    • モデルをロードする
      POST
    • モデルをアンロードする
      POST
  • チャット完了を生成する
    • 概要
    • チャットリクエスト(ストリーミング)
      POST
    • チャットリクエスト(ストリーミングなし)
      POST
    • チャットリクエスト(構造化された出力)
      POST
    • チャットリクエスト(履歴あり)
      POST
    • チャットリクエスト(画像付き)
      POST
    • チャットリクエスト(再現可能な出力)
      POST
    • チャットリクエスト(ツール付き)
      POST
    • モデルをロードする
      POST
    • モデルをアンロードする
      POST
  • モデルの作成
    • 概要
    • 新しいモデルを作成する
      POST
    • モデルを量子化する
      POST
    • GGUFからモデルを作成する
      POST
    • Safetensorsディレクトリからモデルを作成する
      POST
  • Blobが存在するか確認する
    • 概要
  • BlobをPushする
    • 概要
  • BlobをPushする Copy
    • 概要
  • ローカルの Models
    • 概要
    • 例
  • モデル情報を表示する
    • 概要
    • 例
  • Modelをコピーする
    • 概要
    • 例
  • モデルの削除
    • 概要
    • 例
  • Modelをプルする
    • 概要
    • 例
  • ModelをPushする
    • 概要
  • エンベディング生成
    • 概要
    • 例
    • リクエスト(複数入力)
  • 実行中のModel一覧
    • 概要
    • 例
  • エンベディングの生成
    • 概要
    • 例
  • バージョン
    • 概要
  1. 補完を生成する

概要

POST /api/generate
指定されたモデルを使用して、与えられたプロンプトに対する応答を生成します。 これはストリーミングエンドポイントであるため、一連の応答が返されます。 最終的な応答オブジェクトには、リクエストからの統計と追加データが含まれます。

パラメータ#

model: (必須) モデル名
prompt: 応答を生成するプロンプト
suffix: モデルの応答後のテキスト
images: (オプション) base64エンコードされた画像のリスト (例:llavaのようなマルチモーダルモデルの場合)
高度なパラメータ (オプション):
format: 応答を返す形式。 json または JSON schema を指定できます。
options: Modelfile のドキュメントに記載されている追加のモデルパラメータ (例:temperature)
system: システムメッセージ (Modelfile で定義されたものを上書きします)
template: 使用するプロンプトテンプレート (Modelfile で定義されたものを上書きします)
stream: false の場合、応答はオブジェクトのストリームではなく、単一の応答オブジェクトとして返されます
raw: true の場合、プロンプトにフォーマットは適用されません。 API へのリクエストで完全にテンプレート化されたプロンプトを指定する場合は、raw パラメータを使用できます。
keep_alive: リクエスト後、モデルがメモリにロードされた状態を維持する時間を制御します (デフォルト: 5m)
context (非推奨): /generate への以前のリクエストから返された context パラメータ。短い会話の記憶を保持するために使用できます。

構造化された出力#

構造化された出力は、format パラメータで JSON schema を提供することでサポートされます。 モデルは、schema に一致する応答を生成します。 以下の 構造化された出力 の例を参照してください。

JSON モード#

format パラメータを json に設定して、JSON モードを有効にします。 これにより、応答が有効な JSON オブジェクトとして構造化されます。 JSON モードの例を以下に示します。
重要
prompt で JSON を使用するようにモデルに指示することが重要です。 そうしないと、モデルが大量の空白を生成する可能性があります。
前へ
コンベンション
次へ
リクエストの生成 (ストリーミング)
Built with