Ollama API (日本語)
  1. モデルの作成
Ollama API (日本語)
  • エンドポイント
  • コンベンション
  • 補完を生成する
    • 概要
    • リクエストの生成 (ストリーミング)
      POST
    • リクエスト(ストリーミングなし)
      POST
    • リクエスト(サフィックス付き)
      POST
    • リクエスト(構造化された出力)
      POST
    • リクエスト(JSON モード)
      POST
    • リクエスト(画像付き)
      POST
    • リクエスト(Rawモード)
      POST
    • リクエスト(再現可能な出力)
      POST
    • リクエストを生成する(オプション付き)
      POST
    • モデルをロードする
      POST
    • モデルをアンロードする
      POST
  • チャット完了を生成する
    • 概要
    • チャットリクエスト(ストリーミング)
      POST
    • チャットリクエスト(ストリーミングなし)
      POST
    • チャットリクエスト(構造化された出力)
      POST
    • チャットリクエスト(履歴あり)
      POST
    • チャットリクエスト(画像付き)
      POST
    • チャットリクエスト(再現可能な出力)
      POST
    • チャットリクエスト(ツール付き)
      POST
    • モデルをロードする
      POST
    • モデルをアンロードする
      POST
  • モデルの作成
    • 概要
    • 新しいモデルを作成する
      POST
    • モデルを量子化する
      POST
    • GGUFからモデルを作成する
      POST
    • Safetensorsディレクトリからモデルを作成する
      POST
  • Blobが存在するか確認する
    • 概要
  • BlobをPushする
    • 概要
  • BlobをPushする Copy
    • 概要
  • ローカルの Models
    • 概要
    • 例
  • モデル情報を表示する
    • 概要
    • 例
  • Modelをコピーする
    • 概要
    • 例
  • モデルの削除
    • 概要
    • 例
  • Modelをプルする
    • 概要
    • 例
  • ModelをPushする
    • 概要
  • エンベディング生成
    • 概要
    • 例
    • リクエスト(複数入力)
  • 実行中のModel一覧
    • 概要
    • 例
  • エンベディングの生成
    • 概要
    • 例
  • バージョン
    • 概要
  1. モデルの作成

GGUFからモデルを作成する

POST
http://localhost:11434/api/create
formatがjsonに設定されている場合、出力は常に整形式の JSON オブジェクトになります。モデルに JSON で応答するように指示することも重要です。
Request Request Example
Shell
JavaScript
Java
Swift
curl --location --request POST 'http://localhost:11434/api/create' \
--header 'Content-Type: application/json' \
--data-raw '{
    "model": "llama-2-7b-chat",
    "files": {
        "test.gguf": "sha256:9f86d081884c7d659a2feaa0c55ad015a3bf4f1b2b0b822cd15d6c15b0f00a08"
    }
}'
Response Response Example
{"status":"parsing GGUF"}
{"status":"using existing layer sha256:432f310a77f4650a88d0fd59ecdd7cebed8d684bafea53cbff0473542964f0c3"}
{"status":"writing manifest"}
{"status":"success"}

Requestパラメータ

Request Bodyパラメータapplication/json
model
string 
必須
サンプル値:
llama-2-7b-chat
files
object 
必須
test.gguf
string 
必須
SHA256 checksum for model files
サンプル値:
sha256:9f86d081884c7d659a2feaa0c55ad015a3bf4f1b2b0b822cd15d6c15b0f00a08
正規マッチ:
^sha256:[a-f0-9]{64}$
Examples

Response

🟢200Success
application/json
A stream of JSON objects is returned:
Body
status
string 
必須
前へ
モデルを量子化する
次へ
Safetensorsディレクトリからモデルを作成する
Built with