發表文章

PalWorld 帕魯世界多人連線 Creative Menu 修改器(MOD) 訪客無法呼喚解決方法

圖片
  Unable to initiate connection to the host. If you just joined the server, please wait a moment and try reopening the menu. If the connection is still not functioning after around 30 seconds, please ensure the host has Creative Menu installed as well.  如果出現這個錯誤的話,請先將訪客的 creative menu 權限全部關掉,關閉程式後選取偵測遊戲完整性(伺服器跟訪客都要),跑完後在重新開啟權限即可  

全球那些專門製造 Linux 機器的公司們

圖片
   對於普遍台灣人來說 Linux 是個很模糊也不是很清楚的一個存在,甚至連蘋果運行的 macOS 都會誤解成跑在蘋果電腦的 Microsoft Windows  ,近年來雖然 Android 與 iOS 讓部份群眾已經有一點點概念,如果細到 bigsur 版本號這類,就會更矇了。 目前市場上有幾家專門針對 Linux 進行硬體優化、預裝系統,甚至參與內核開發的公司。這些品牌通常會解決常見的驅動程式問題(如 Wi-Fi、顯示卡或觸控板),並提供更好的韌體支持(如支援 LVFS 或核心開源)。 以下是幾家代表性的全球專營 Linux 硬體公司: 1. System76 (美國) System76 是目前最具知名度的 Linux 電腦商。他們不僅銷售硬體,還開發了基於 Ubuntu 的作業系統 Pop!_OS 。 特色 :提供筆記型電腦(Pangolin, Galago Pro 等)、桌機(Thelio 系列)以及伺服器。 亮點 :他們致力於「開源韌體」,其 Thelio 桌機是在美國科羅拉多州自家工廠設計與製造的,外型極具質感。 2. Framework Computer (美國) 雖然 Framework 不只專攻 Linux,但他們與 Linux 社群有極深的合作,並提供專門的 Linux 筆記型電腦版本。 特色 :主打 極致的模組化與可維修性 。所有的組件(包含主機板、連接埠、鍵盤)都可以由使用者自行更換。 亮點 :他們與 Fedora 和 Ubuntu 團隊密切測試,確保硬體 100% 相容。對於喜歡動手改裝硬體的人來說是首選。 3. Tuxedo Computers (德國) 來自德國的品牌,是歐洲 Linux 使用者的首選,產品線非常齊全。 特色 :提供高度客製化的筆記型電腦與迷你主機。他們有自己的 TUXEDO OS ,並針對硬體開發了專用的控制軟體(如風扇控制、性能切換)。 亮點 :與 KDE 團隊合作緊密,許多機型提供預裝 KDE Plasma 的優化環境。 4. Purism (美國) 主打 隱私與安全性 的硬體公司。 特色 :開發了 Librem 系列筆記型電腦與手機 (Librem 5),以及基於 Debian 的 PureOS 。 亮點 :硬體上設有物理斷路開關(Kill Switches),可以手動切換視訊...

五月報稅,Linux 用戶可用 自然人憑證與健保卡憑證申請稅務資料

圖片
 本文分為兩個方面,主要提出偵錯的一些提示,自然人憑證與健保卡分屬兩個不同的主管機關,使用的邏輯也稍有不同,自然人憑證很明顯委託給中華電信做維護,許多內容都是有 CHT 等資料在裡面,而健保署的健保卡憑證屬於健保署自行維護(從文件看不太出來),現在 AI 都很方便都能透過截圖與邏輯猜測進行錯誤修訂,而在 Linux 上面自然人憑證會比較麻煩一點點(每次認證伺服器要開啟 start.sh 跟讀卡機有型號限制),邏輯通了也比較好偵錯,無論自然人憑證或是健保卡IC卡憑證都在 linux 區分軟體驅動層面跟硬體層面,如下圖 自然人憑證: 軟體支援層面  Linux mint 在 跨平台網頁中 下載 HiPKILocalSignServerApp 只要執行資料夾內部 ./start.sh 即可建立用戶端連線工具(需要在執行檔案開啟可執行程式權限),放入任何資料夾都能執行,./stop.sh 即可中止。 硬體支援層面 (健保卡也適用) 需要確認自己有沒有讀卡機的相關核心驅動與啟動工具 sudo apt update sudo apt install pcscd libpcsclite1 pcsc-tools 安裝確認後可以啟動 SmartCard 服務(讀取IC卡的服務) sudo systemctl enable --now pcscd sudo systemctl status pcscd 確認 active 綠燈就可以 ctrl+c 退出,進行 IC 偵測 pcsc_scan 偵測 IC 極其重要,首先要先確認讀卡機有顯示出來型號後,可以插入 IC 卡,出現出卡片資訊後(偵測不到機型就多抽插確認機型出來後,卡片插入如果一直讀取轉圈也在抽出再插入可以讀到為止,自己需要抽拔三次左右即可),就能到 瀏覽器進行認證 ,必須注意,自然人憑證在 Linux 有型號限制 IT-500U、EZ100PU 跟其他宣稱 Linux 可用讀卡機即可。 後續輸入密碼跟操作就跟 Windows 的自然人憑證操作一模一樣。   健保卡憑證:    軟體支援層面  健保卡軟體比較需要自行安裝憑證,安裝後的認證元件會儲存在  /usr/local/share/NHIICC/mLNHIICC 裡面,並且常駐執行(下載元件裡面 unstal...

不會寫程式的小白,靠著 AI 發布了第一則實質意義的 Github 專案 Ollama-Subtitle-Toolkit

圖片
自己長期在海外串流平台觀看原文字幕的影片,有些親朋好友沒辦法原文觀看,常常難以與其分享內容,早期還尚未使用 Ollama 的時候,都是透過 Gemini CLI 以  " 請幫我將字幕檔翻譯成為繁體中文 並且請輸出成為 srt 檔 ,這個檔案可能很大,請確保你讀取並且翻譯所有字幕文字內容,若超過單個檔案的處理限制請分段翻譯後進行統整,請勿忽略、修改或刪減時間戳與索引,最後請檢驗原字幕檔時間戳與索引是否與翻譯檔案時間戳、索引相符 感謝! "  的方式來翻譯字幕,即便透過線上 Gemini 2.5 CLI 仍需要 20-40 分鐘翻譯一部電影的字幕檔案(而且超過 800行就會開始掉字還亂跑時間戳),之後透過 python 腳本對接 Gemini API 翻譯字幕檔案改善超出行數與時間戳的問題,還有 AI 推薦 pysrt 等這類輔助工具就不會格式亂跑,缺點都是需要耗 token 來換資料,也是需要燒錢。   在查找後 Ollama 部屬離線端 AI 模型 ,取代未來手機贈送到期一年免費的 Gemini Pro 會員, 由於先前使用 AI 生成的 Python 腳本一直在自己的筆記本裡面,版本太多也不好管理,才突然發現 Github 可以拿來做發布也能讓其他人一同修訂,原方案目的很簡單就是透過小型 LLM 至少能翻譯出能理解大致上影片內容的字幕檔案,小型模型目前透過 qwen:4b、 qwen2.5:1.5b、gemma2:2b    這幾個模型,雖然後面b的等級代表參數越多,實際測下來 qwen:4b 與 qwen2.5:1.5b 並沒有太大的差距,反而 qwen2.5:1.5b反應速度更快速些,若電腦有 Nvidia 顯卡運算能力可以上到 llama3:latest 或是更高 8b 模型。 現階段個人都在挑戰最低算力達到最適目標最後 ThinkPad X220 透過  Ollama-Subtitle-Toolkit 的三個檔案做最佳化,首先先採 transrt_fast.py 直接翻譯成中文字幕(通常這樣就能直接觀看了,大多模型都ok),如果第一次翻譯就有部份行數沒翻譯到則採 retranslate_en.py 再次偵測漏掉的英文字幕再補強,基本上第二階段就能用了,而第三階段的簡體轉繁體其實也能透過 Libre...

LLM Checker 替你找到適合你電腦的大型語言模型

圖片
  這是一個 CLI 工具的偵測工具,他可以透過你的電腦配置等級推薦給你最適合的 LLM 大型語言模型,避免使用者跑去下載過高要求的 LLM 結果在自已的電腦離線端運作得十分辛苦,如果降低又跑不到效能,所以這樣的工具也很方便,更不用一直 duckduckgo 查找資料。 安裝很簡單 只要在 擁有 Node.js 的環境 下,在終端機輸入  npm install -g llm-checker 安裝完成後就能直接執行 llm-checker 進行運算確認。

難以置信的 Ollama 本地端 AI 運用,低規格 Thinkpad X220 照樣能運行

圖片
    先前我們一系列探討了如何使用 Linux 與 Windows 上面使用 Gemini CLI 基本上都能完成很多分析電腦錯誤、撰寫腳本、甚至 偵測試用版軟體如何重置 時間等等。   近期也注意到 Ollama 可以在離線端進行自身的 AI 模型無須連網路,即便沒有 Nvidia 或是 AMD 的顯示卡,甚至使用 Raseberry Pi 也能跑純 CPU-Only 。       個人參考 pimylifeup.com 的教學依序使用下列指令安裝 : sudo apt update sudo apt upgrade sudo apt install curl curl -fsSL https://ollama.com/install.sh | sh ollama --version #( ollama version is 0.21.0) 2026/4/22安裝所顯示的版本 由於自身的電腦只有 4GB RAM 測試下來算力有限,只有 deepseek-r1:1.5b 與 tinyllama 這兩個親量化的 LLM 語言模型較有正常的體驗,速度與回應都很算期待中的產出。  安裝與執行只需要執行 ollama run deepseek-r1:1.5b  ollama run tinyllama  ollama run  gemma2:2b ollama run qwen2.5:1.5b   進入聊天界面就與 Gemini CLI 大同小異,可採用 /help 呼出說明選單 /clear 清除對話,以及 /exit 離開。 如果要刪除 Ollama 模型則可以退出後在終端機輸入  ollama list   olalma rm deepseek-r1:7b   (採 deepseek-r1:7b  為例)     後續仍可參考 這篇文章 將本地端 Ollama 的模型套入 OnlyOffice 裡面,進行生產力工具的執行。 

直接使用 XP Luna 太顯老氣?

圖片
   先前介紹過如何在 Linux 復古使用 Windows XP 主題 ,  有些夥伴認為 XP 畢竟還是太辣 難以吞嚥, 那你可以考慮使用 Plano 主題 https://github.com/lassekongo83/plano-theme https://store.kde.org/p/1174518/     整體收斂不少給予推薦