nVIDIA が提供している Chat with RTX は Windows11 で動く。
メモリは2.5GB程度消費してて、ディスクは30GBを越えた程度諸費。
試したのはRTX3060をつけた自作機だけど結構速い応答をする。
月: 2024年4月
Ollama で Gemma
すでに日本語が使えるモデルが公開されていました。
https://ollama.com/library/gemma
LLM(大規模言語モデル)が皮肉にも量子化技術によりどんどん小型化しているようです。
とりあえず Gemma の 7b(70億パラメータ)版を動かしてみました。
Ollama で Llama2
家の Ubutu 22.04 のマシンに Ollama 入れたらすんなり Llama2 が動いた。
Ollama のインストールは “curl https://ollama.ai/install.sh | sh”