Squadbase
Squadbase Docs

Ollama

Ollamaを使用してLLMをセルフホストする方法を学びます。

SquadbaseではOllamaによるLLMのセルフホスト機能を提供しています。 ダッシュボード上で使用したいモデルを選択しデプロイすることでAPIとして呼び出し可能なURLが発行されPythonのコード上から呼び出すことができます。

LLMをセルフホストする

LLMをデプロイする

ダッシュボードのLLMタブを押下しLLM作成画面に遷移します。

任意のLLM Nameを入力し、使用するModel Nameを選択します。 LLM作成

現在以下のモデルが使用可能です。

ModelParameters
deepseek-r11.5b, 7b, 8b, 14b
llama3.28b
phi414b
qwen0.5b, 1.8b, 4b, 7b, 14b

作成したモデルを確認する

LLMタブから作成したLLMを選択します。 LLM詳細

Logsの欄で選択したモデルのステータスがDeployment Succeededであれば作成が成功しています。まだ進行中の場合は作成完了までお待ちください。

App URLはSquadbaseにホストされたLLMのURLです。このURLとSquadbaseのAPI Keyを使用してLLMにリクエストを送ることが可能です。

LLMにリクエストを送る

先ほどのApp URLとSquadbaseのAPI Keyを使用してLLMにリクエストを送ります。

以下はPythonとcURLによるリクエストのサンプルです。

pip install langchain-ollama
from langchain_ollama import ChatOllama
 
llm = ChatOllama(
    model="{MODEL_NAME_YOU_DEPLOYED}",
    base_url="{YOUR_SQUADBASE_LLM_APP_URL}",
    client_kwargs={
        "headers": {
            "x-api-key": "{YOUR_SQUADBASE_API_KEY}",
        }
    },
)
for token in llm.stream("Hello"):
    yield token.content

On this page