Ollama API (日本語)
  1. チャット完了を生成する
Ollama API (日本語)
  • エンドポイント
  • コンベンション
  • 補完を生成する
    • 概要
    • リクエストの生成 (ストリーミング)
      POST
    • リクエスト(ストリーミングなし)
      POST
    • リクエスト(サフィックス付き)
      POST
    • リクエスト(構造化された出力)
      POST
    • リクエスト(JSON モード)
      POST
    • リクエスト(画像付き)
      POST
    • リクエスト(Rawモード)
      POST
    • リクエスト(再現可能な出力)
      POST
    • リクエストを生成する(オプション付き)
      POST
    • モデルをロードする
      POST
    • モデルをアンロードする
      POST
  • チャット完了を生成する
    • 概要
    • チャットリクエスト(ストリーミング)
      POST
    • チャットリクエスト(ストリーミングなし)
      POST
    • チャットリクエスト(構造化された出力)
      POST
    • チャットリクエスト(履歴あり)
      POST
    • チャットリクエスト(画像付き)
      POST
    • チャットリクエスト(再現可能な出力)
      POST
    • チャットリクエスト(ツール付き)
      POST
    • モデルをロードする
      POST
    • モデルをアンロードする
      POST
  • モデルの作成
    • 概要
    • 新しいモデルを作成する
      POST
    • モデルを量子化する
      POST
    • GGUFからモデルを作成する
      POST
    • Safetensorsディレクトリからモデルを作成する
      POST
  • Blobが存在するか確認する
    • 概要
  • BlobをPushする
    • 概要
  • BlobをPushする Copy
    • 概要
  • ローカルの Models
    • 概要
    • 例
  • モデル情報を表示する
    • 概要
    • 例
  • Modelをコピーする
    • 概要
    • 例
  • モデルの削除
    • 概要
    • 例
  • Modelをプルする
    • 概要
    • 例
  • ModelをPushする
    • 概要
  • エンベディング生成
    • 概要
    • 例
    • リクエスト(複数入力)
  • 実行中のModel一覧
    • 概要
    • 例
  • エンベディングの生成
    • 概要
    • 例
  • バージョン
    • 概要
  1. チャット完了を生成する

モデルをアンロードする

POST
http://localhost:11434/api/chat
メッセージ配列が空で、keep_alive パラメータが 0 に設定されている場合、モデルはメモリからアンロードされます。
Request Request Example
Shell
JavaScript
Java
Swift
curl --location --request POST 'http://localhost:11434/api/chat' \
--header 'Content-Type: application/json' \
--data-raw '{
    "model": "llama3.2",
    "messages": [
        {
            "role": "user",
            "content": "Hello"
        }
    ],
    "keep_alive": 60
}'
Response Response Example
{
  "model": "llama3.2",
  "created_at":"2024-09-12T21:33:17.547535Z",
  "message": {
    "role": "assistant",
    "content": ""
  },
  "done_reason": "unload",
  "done": true
}

Requestパラメータ

Request Bodyパラメータapplication/json
model
enum<string> 
必須
列挙型:
llama3.2
サンプル値:
llama3.2
messages
array [object] 
必須
keep_alive
integer 
必須
>= 0
サンプル値:
60
Examples

Response

🟢200Success
application/json
A single JSON object is returned:
Body
model
string 
必須
created_at
string 
必須
message
object 
必須
role
string 
必須
content
string 
必須
done_reason
string 
必須
done
boolean 
必須
更新日時 2025-03-28 03:25:09
前へ
モデルをロードする
次へ
概要
Built with