離線 AI 好爽!
有一位 blog 讀者,在看到我的《NVIDIA 的浪漫》這篇之後,寫信問我:
- 我買兩張 RTX 4000 到底是要做什麼?
- 以及,為什麼不買速度快很多、價格卻差不多的 4090?
簡單來說,我的主要目的是在自己的電腦上離線執行各種 AI 應用程式,順便學習、研究這一切相關的東西,這樣才不會被時代淘汰啊!以下介紹一些我目前常用的東西。
Ollama:離線的大型語言模型
首先,最主要的原因是為了使用 Ollama,這是我現在每天都大量使用的工具。
我知道線上有 Claude 和 ChatGPT 可以用,但能夠在自己的電腦上離線執行大型語言模型,不需要依賴線上服務的感覺真的很爽啊!再加上離線的語言模型可自訂性更高,甚至還有「無言論審查」的版本可以下載,把政治不正確指數拉到最高!
例如,如果我問 Claude「要怎麼欺負別人」,會直接被訓話一頓;但問無言論審查版的 gemma2,它會很樂意地告訴你!
(Claude:乖寶寶不可以欺負別人喔!)

(Gemma2-uncensored:讓我來教你成為「欺負大師」,好好玩喔!)

目前我覺得最聰明的模型是 llama3.1:70B,它的聰明程度幾乎逼近 GPT-4o 和 Claude 3.5;但它也需要將近 40 GB 的 VRAM 才有辦法跑(不然會超~慢~),這也是我為什麼想要有兩張 RTX 4000 的主要原因。
我也很喜歡 gemma2,它的 9B 和 27B 模型都滿好用的,速度比 llama3.1:70B 快很多;回答問題的語氣、習慣也都跟 llama3.1(或線上的 Claude 和 GPT-4o)不太相同。
(gemma2 模型好用!而且速度很快!)

我現在的工作習慣是同一個問題都會問好幾個模型,把它們的回答都列入考慮。我覺得花錢買 GPU 來離線跑大型語言模型完全值得,這就像是你請了好幾個工讀生幫你解決生活問題一樣,省下來的時間價值絕對遠遠超過 GPU 的花費!
FLUX.1:離線產生圖片
我知道也有很多線上服務可以產生圖片,但跟前一點一樣,能夠在自己電腦上離線執行,感覺真的很爽!
更重要的是,幾乎所有線上圖片產生器都有內容審查機制。譬如說,我想要產生包含 Windows LOGO 的圖片,線上產生器通常都不會允許。更別說是生成一些「更奇妙(嘿嘿)」的內容了。使用離線版本的話,完全都沒有以上問題!
(離線的 FLUX.1,可以產生正確的 Windows LOGO!)

我有時也會用 Stable Diffusion,但現在新的 FLUX.1 模型更強大、更好用!