發表文章

目前顯示的是 4月 19, 2026的文章

不會寫程式的小白,靠著 AI 發布了第一則實質意義的 Github 專案 Ollama-Subtitle-Toolkit

圖片
自己長期在海外串流平台觀看原文字幕的影片,有些親朋好友沒辦法原文觀看,常常難以與其分享內容,早期還尚未使用 Ollama 的時候,都是透過 Gemini CLI 以  " 請幫我將字幕檔翻譯成為繁體中文 並且請輸出成為 srt 檔 ,這個檔案可能很大,請確保你讀取並且翻譯所有字幕文字內容,若超過單個檔案的處理限制請分段翻譯後進行統整,請勿忽略、修改或刪減時間戳與索引,最後請檢驗原字幕檔時間戳與索引是否與翻譯檔案時間戳、索引相符 感謝! "  的方式來翻譯字幕,即便透過線上 Gemini 2.5 CLI 仍需要 20-40 分鐘翻譯一部電影的字幕檔案(而且超過 800行就會開始掉字還亂跑時間戳),之後透過 python 腳本對接 Gemini API 翻譯字幕檔案改善超出行數與時間戳的問題,還有 AI 推薦 pysrt 等這類輔助工具就不會格式亂跑,缺點都是需要耗 token 來換資料,也是需要燒錢。   在查找後 Ollama 部屬離線端 AI 模型 ,取代未來手機贈送到期一年免費的 Gemini Pro 會員, 由於先前使用 AI 生成的 Python 腳本一直在自己的筆記本裡面,版本太多也不好管理,才突然發現 Github 可以拿來做發布也能讓其他人一同修訂,原方案目的很簡單就是透過小型 LLM 至少能翻譯出能理解大致上影片內容的字幕檔案,小型模型目前透過 qwen:4b、 qwen2.5:1.5b、gemma2:2b    這幾個模型,雖然後面b的等級代表參數越多,實際測下來 qwen:4b 與 qwen2.5:1.5b 並沒有太大的差距,反而 qwen2.5:1.5b反應速度更快速些,若電腦有 Nvidia 顯卡運算能力可以上到 llama3:latest 或是更高 8b 模型。 現階段個人都在挑戰最低算力達到最適目標最後 ThinkPad X220 透過  Ollama-Subtitle-Toolkit 的三個檔案做最佳化,首先先採 transrt_fast.py 直接翻譯成中文字幕(通常這樣就能直接觀看了,大多模型都ok),如果第一次翻譯就有部份行數沒翻譯到則採 retranslate_en.py 再次偵測漏掉的英文字幕再補強,基本上第二階段就能用了,而第三階段的簡體轉繁體其實也能透過 Libre...

LLM Checker 替你找到適合你電腦的大型語言模型

圖片
  這是一個 CLI 工具的偵測工具,他可以透過你的電腦配置等級推薦給你最適合的 LLM 大型語言模型,避免使用者跑去下載過高要求的 LLM 結果在自已的電腦離線端運作得十分辛苦,如果降低又跑不到效能,所以這樣的工具也很方便,更不用一直 duckduckgo 查找資料。 安裝很簡單 只要在 擁有 Node.js 的環境 下,在終端機輸入  npm install -g llm-checker 安裝完成後就能直接執行 llm-checker 進行運算確認。

難以置信的 Ollama 本地端 AI 運用,低規格 Thinkpad X220 照樣能運行

圖片
    先前我們一系列探討了如何使用 Linux 與 Windows 上面使用 Gemini CLI 基本上都能完成很多分析電腦錯誤、撰寫腳本、甚至 偵測試用版軟體如何重置 時間等等。   近期也注意到 Ollama 可以在離線端進行自身的 AI 模型無須連網路,即便沒有 Nvidia 或是 AMD 的顯示卡,甚至使用 Raseberry Pi 也能跑純 CPU-Only 。       個人參考 pimylifeup.com 的教學依序使用下列指令安裝 : sudo apt update sudo apt upgrade sudo apt install curl curl -fsSL https://ollama.com/install.sh | sh ollama --version #( ollama version is 0.21.0) 2026/4/22安裝所顯示的版本 由於自身的電腦只有 4GB RAM 測試下來算力有限,只有 deepseek-r1:1.5b 與 tinyllama 這兩個親量化的 LLM 語言模型較有正常的體驗,速度與回應都很算期待中的產出。  安裝與執行只需要執行 ollama run deepseek-r1:1.5b  ollama run tinyllama  ollama run  gemma2:2b ollama run qwen2.5:1.5b   進入聊天界面就與 Gemini CLI 大同小異,可採用 /help 呼出說明選單 /clear 清除對話,以及 /exit 離開。 如果要刪除 Ollama 模型則可以退出後在終端機輸入  ollama list   olalma rm deepseek-r1:7b   (採 deepseek-r1:7b  為例)     後續仍可參考 這篇文章 將本地端 Ollama 的模型套入 OnlyOffice 裡面,進行生產力工具的執行。 

直接使用 XP Luna 太顯老氣?

圖片
   先前介紹過如何在 Linux 復古使用 Windows XP 主題 ,  有些夥伴認為 XP 畢竟還是太辣 難以吞嚥, 那你可以考慮使用 Plano 主題 https://github.com/lassekongo83/plano-theme https://store.kde.org/p/1174518/     整體收斂不少給予推薦