AI

Ollama

LLM(大規模な言語モデル)を立ち上げて実行するツール

インストール

wget https://ollama.com/install.sh
bash install.sh

使い方

Llama-3-ELYZA-JP-8B を使ってみる。

ollama サービスの起動停止

# 停止
sudo systemctl stop ollama
# 開始
sudo systemctl start ollama

ollama 設定変更

systemctl edit ollama.service

エディタが起動するので、

[Service]
Environment="OLLAMA_HOST=127.0.0.1:11434"

のように設定を記載して保存する。 ### Lines bellow this comment will be discarded より上に記載のこと。

ポートなどを変更した場合

次のように、環境変数にてポート等を指定して実行する。

OLLAMA_HOST=127.0.0.1:11434 ollama ps

Jupyter からの実行例

https://ehobby.jp/~kei-n/html/ollama.html

トップ   差分 バックアップ リロード   一覧 検索 最終更新   ヘルプ   最終更新のRSS