難以置信的 Ollama 本地端 AI 運用,低規格 Thinkpad X220 照樣能運行
先前我們一系列探討了如何使用 Linux 與 Windows 上面使用 Gemini CLI 基本上都能完成很多分析電腦錯誤、撰寫腳本、甚至偵測試用版軟體如何重置時間等等。
近期也注意到 Ollama 可以在離線端進行自身的 AI 模型無須連網路,即便沒有 Nvidia 或是 AMD 的顯示卡,甚至使用 Raseberry Pi 也能跑純 CPU-Only 。
個人參考 pimylifeup.com 的教學依序使用下列指令安裝 :
sudo apt update
sudo apt upgrade
sudo apt install curl
curl -fsSL https://ollama.com/install.sh | sh
ollama --version
#( ollama version is 0.21.0) 2026/4/22安裝所顯示的版本
由於自身的電腦只有 4GB RAM 測試下來算力有限,只有 deepseek-r1:1.5b 與 tinyllama 這兩個親量化的 LLM 語言模型較有正常的體驗,速度與回應都很算期待中的產出。
安裝與執行只需要執行
ollama run deepseek-r1:1.5b
ollama run tinyllama
進入聊天界面就與 Gemini CLI 大同小異,可採用 /help 呼出說明選單 /clear 清除對話,以及 /exit 離開。
如果要刪除 Ollama 模型則可以退出後在終端機輸入
ollama list
olalma rm deepseek-r1:7b
(採 deepseek-r1:7b 為例)
後續仍可參考 這篇文章 將本地端 Ollama 的模型套入 OnlyOffice 裡面,進行生產力工具的執行。
留言