Ollama API (日本語)
  1. 補完を生成する
Ollama API (日本語)
  • エンドポイント
  • コンベンション
  • 補完を生成する
    • 概要
    • リクエストの生成 (ストリーミング)
      POST
    • リクエスト(ストリーミングなし)
      POST
    • リクエスト(サフィックス付き)
      POST
    • リクエスト(構造化された出力)
      POST
    • リクエスト(JSON モード)
      POST
    • リクエスト(画像付き)
      POST
    • リクエスト(Rawモード)
      POST
    • リクエスト(再現可能な出力)
      POST
    • リクエストを生成する(オプション付き)
      POST
    • モデルをロードする
      POST
    • モデルをアンロードする
      POST
  • チャット完了を生成する
    • 概要
    • チャットリクエスト(ストリーミング)
      POST
    • チャットリクエスト(ストリーミングなし)
      POST
    • チャットリクエスト(構造化された出力)
      POST
    • チャットリクエスト(履歴あり)
      POST
    • チャットリクエスト(画像付き)
      POST
    • チャットリクエスト(再現可能な出力)
      POST
    • チャットリクエスト(ツール付き)
      POST
    • モデルをロードする
      POST
    • モデルをアンロードする
      POST
  • モデルの作成
    • 概要
    • 新しいモデルを作成する
      POST
    • モデルを量子化する
      POST
    • GGUFからモデルを作成する
      POST
    • Safetensorsディレクトリからモデルを作成する
      POST
  • Blobが存在するか確認する
    • 概要
  • BlobをPushする
    • 概要
  • BlobをPushする Copy
    • 概要
  • ローカルの Models
    • 概要
    • 例
  • モデル情報を表示する
    • 概要
    • 例
  • Modelをコピーする
    • 概要
    • 例
  • モデルの削除
    • 概要
    • 例
  • Modelをプルする
    • 概要
    • 例
  • ModelをPushする
    • 概要
  • エンベディング生成
    • 概要
    • 例
    • リクエスト(複数入力)
  • 実行中のModel一覧
    • 概要
    • 例
  • エンベディングの生成
    • 概要
    • 例
  • バージョン
    • 概要
  1. 補完を生成する

リクエスト(ストリーミングなし)

POST
http://localhost:11434/api/generate
ストリーミングがオフの場合、1 回の返信で応答を受信できます。
Request Request Example
Shell
JavaScript
Java
Swift
curl --location --request POST 'http://localhost:11434/api/generate' \
--header 'Content-Type: application/json' \
--data-raw '{
    "model": "llama3.2",
    "prompt": "Why is the sky blue?",
    "stream": false
}'
Response Response Example
{
  "model": "llama3.2",
  "created_at": "2023-08-04T19:22:45.499127Z",
  "response": "The sky is blue because it is the color of the sky.",
  "done": true,
  "context": [1, 2, 3],
  "total_duration": 5043500667,
  "load_duration": 5025959,
  "prompt_eval_count": 26,
  "prompt_eval_duration": 325953000,
  "eval_count": 290,
  "eval_duration": 4709213000
}

Requestパラメータ

Request Bodyパラメータapplication/json
model
string 
必須
サンプル値:
llama3.2
prompt
string 
必須
サンプル値:
Why is the sky blue?
stream
boolean 
可選
デフォルト値:
false
Examples

Response

🟢200Success
application/json
If stream is set to false, the response will be a single JSON object:
Body
model
string 
必須
created_at
string 
必須
response
string 
必須
done
boolean 
必須
context
array[integer]
必須
total_duration
integer 
必須
load_duration
integer 
必須
prompt_eval_count
integer 
必須
prompt_eval_duration
integer 
必須
eval_count
integer 
必須
eval_duration
integer 
必須
更新日時 2025-03-28 03:12:23
前へ
リクエストの生成 (ストリーミング)
次へ
リクエスト(サフィックス付き)
Built with