難以置信的 Ollama 本地端 AI 運用,低規格 Thinkpad X220 照樣能運行

 

 

先前我們一系列探討了如何使用 LinuxWindows 上面使用 Gemini CLI 基本上都能完成很多分析電腦錯誤、撰寫腳本、甚至偵測試用版軟體如何重置時間等等。

 

近期也注意到 Ollama 可以在離線端進行自身的 AI 模型無須連網路,即便沒有 Nvidia 或是 AMD 的顯示卡,甚至使用 Raseberry Pi 也能跑純 CPU-Only 。

 

 

 

個人參考 pimylifeup.com 的教學依序使用下列指令安裝 :

sudo apt update
sudo apt upgrade

sudo apt install curl

curl -fsSL https://ollama.com/install.sh | sh

ollama --version

#( ollama version is 0.21.0) 2026/4/22安裝所顯示的版本

由於自身的電腦只有 4GB RAM 測試下來算力有限,只有 deepseek-r1:1.5b 與 tinyllama 這兩個親量化的 LLM 語言模型較有正常的體驗,速度與回應都很算期待中的產出。

 安裝與執行只需要執行

ollama run deepseek-r1:1.5b 

ollama run tinyllama 

 進入聊天界面就與 Gemini CLI 大同小異,可採用 /help 呼出說明選單 /clear 清除對話,以及 /exit 離開。

如果要刪除 Ollama 模型則可以退出後在終端機輸入

 ollama list 

 olalma rm deepseek-r1:7b  

(採 deepseek-r1:7b  為例)

 

 

後續仍可參考 這篇文章 將本地端 Ollama 的模型套入 OnlyOffice 裡面,進行生產力工具的執行。 

留言

這個網誌中的熱門文章

debloat win10 超終極清除內建無用功能程式提升電腦效能

Zorin OS 18 透過 bottles 安裝 LINE 無法輸入中文