Ollama API (日本語)
  1. チャット完了を生成する
Ollama API (日本語)
  • エンドポイント
  • コンベンション
  • 補完を生成する
    • 概要
    • リクエストの生成 (ストリーミング)
      POST
    • リクエスト(ストリーミングなし)
      POST
    • リクエスト(サフィックス付き)
      POST
    • リクエスト(構造化された出力)
      POST
    • リクエスト(JSON モード)
      POST
    • リクエスト(画像付き)
      POST
    • リクエスト(Rawモード)
      POST
    • リクエスト(再現可能な出力)
      POST
    • リクエストを生成する(オプション付き)
      POST
    • モデルをロードする
      POST
    • モデルをアンロードする
      POST
  • チャット完了を生成する
    • 概要
    • チャットリクエスト(ストリーミング)
      POST
    • チャットリクエスト(ストリーミングなし)
      POST
    • チャットリクエスト(構造化された出力)
      POST
    • チャットリクエスト(履歴あり)
      POST
    • チャットリクエスト(画像付き)
      POST
    • チャットリクエスト(再現可能な出力)
      POST
    • チャットリクエスト(ツール付き)
      POST
    • モデルをロードする
      POST
    • モデルをアンロードする
      POST
  • モデルの作成
    • 概要
    • 新しいモデルを作成する
      POST
    • モデルを量子化する
      POST
    • GGUFからモデルを作成する
      POST
    • Safetensorsディレクトリからモデルを作成する
      POST
  • Blobが存在するか確認する
    • 概要
  • BlobをPushする
    • 概要
  • BlobをPushする Copy
    • 概要
  • ローカルの Models
    • 概要
    • 例
  • モデル情報を表示する
    • 概要
    • 例
  • Modelをコピーする
    • 概要
    • 例
  • モデルの削除
    • 概要
    • 例
  • Modelをプルする
    • 概要
    • 例
  • ModelをPushする
    • 概要
  • エンベディング生成
    • 概要
    • 例
    • リクエスト(複数入力)
  • 実行中のModel一覧
    • 概要
    • 例
  • エンベディングの生成
    • 概要
    • 例
  • バージョン
    • 概要
  1. チャット完了を生成する

概要

POST /api/chat
提供されたモデルを使用して、チャットの次のメッセージを生成します。 これはストリーミングエンドポイントであるため、一連のレスポンスが返されます。 "stream": false を使用してストリーミングを無効にできます。 最終的なレスポンスオブジェクトには、リクエストからの統計と追加データが含まれます。

パラメータ#

model: (必須) モデル名
messages: チャットのメッセージ。チャットのメモリを保持するために使用できます。
tools: モデルがサポートしている場合にモデルが使用するJSON形式のツールのリスト
message オブジェクトには、次のフィールドがあります。
role: メッセージのロール。system、user、assistant、または tool のいずれか
content: メッセージのコンテンツ
images (オプション): メッセージに含める画像のリスト(llavaなどのマルチモーダルモデルの場合)
tool_calls (オプション): モデルが使用したいJSON形式のツールのリスト
高度なパラメータ(オプション):
format: レスポンスを返す形式。 形式は json または JSON スキーマにすることができます。
options: Modelfile のドキュメントにリストされている追加のモデルパラメータ(temperatureなど)
stream: false の場合、レスポンスはオブジェクトのストリームではなく、単一のレスポンスオブジェクトとして返されます。
keep_alive: リクエスト後、モデルがメモリにロードされた状態を維持する時間を制御します (デフォルト: 5m)

構造化された出力#

構造化された出力は、format パラメータに JSON スキーマを提供することでサポートされます。 モデルは、スキーマに一致するレスポンスを生成します。 下記のチャットリクエスト (構造化された出力) の例を参照してください。
前へ
モデルをアンロードする
次へ
チャットリクエスト(ストリーミング)
Built with