top of page
作家相片Simmy Lee

在你的電腦上安裝「Dalai Llama (達賴喇嘛)」,不用連接網絡,也能有 ChatGPT 4.0 一樣的體驗,而且無審查限制(Linux/macOS/Windows 都可以用)

已更新:2023年4月8日


前言


昨天(3月22日),OpenAI 旗下的 ChatGPT 項目離線已接近一整日(至截稿前仍未回復穩定運作),讓用戶不禁擔心。 而且,身為香港網絡用戶,我們不難發現 ChatGPT 一類創新平台,似乎並未對我們持非常歡迎的態度,導致我們需要想方設法才能取用。這也再次提醒了我們,人工智能作為一個新興領域,還有很多問題需要解決。




不過,幸好有困難就有解決方案,因此我們以下介紹一種可以把 AI 對答部署在你自己電腦的方案。這種方案可以讓你擁有更高的控制權和安全性,同時也可以提高 AI 對答的效率和準確性。如果你正在尋找一種更穩定和可靠的 AI 對答解決方案,那麼這種方案可能會是你的不二之選。


什麼是「Llama」?



「Llama」(Large Language Model Meta AI) 是一種基於大型語言模型的元學習系統,旨在為人工智能的研究和開發提供更強大的支持。其具有自我學習和自我改進的能力,能夠自動發現和學習新的模式和規律,同時還能夠根據用戶的需求和回應進行自我調整和優化。作為一種全新的學習系統,「Llama」正在為人工智能的發展和應用帶來更多的創新和可能性。


「Llama」的發展


在近期,Facebook 旗下的 Meta 發佈了「LLaMA」,一個基於大型語言模型的人工智能系統。與 GPT-3 相比,它只需要擁有一個 20GB VRAM 的遊戲級 GPU 就可以運行,而不需要多個資料中心級 A100 的運行。然而,它需要進行學術研究註冊後才能進行下載試用,並且只能輸出文字,不像 ChatGPT 能進行對話。此外,「LLaMA」並未經過道德審查,因此可能輸出一些敏感的政治答案。在接下來的幾天中,有人成功將「LLaMA」的 VRAM 要求減半,並將它從 Python 改編到 C++,並成功在 Raspberry Pi 和 Pixel 6 上運行。此外,一班史丹福大學的研究人員還成功地將「LLaMA」進行了微調,並開發出了一個名為「Stanford Alpaca」的能夠進行人與人對話的模型。在這些研究的基礎上,有人又開發出了一個名為「Alpaca-LoRA」的新模型,並公開發布。最終,有人將「Alpaca-LoRA」和「llama.cpp」結合在一起,創建了「alpaca.cpp」,使得人們可以使用普通 CPU 運行一個無道德審查的問答式 Chat AI。這些發展顯示了人工智能領域的不斷進步和創新,也為人們提供了更多的可能性和選擇。


為什麼成為了「Dalai Llama」?


隨著上述發展,Github 上的開發者「cocktailpeanut」也加入了這一行列,他開發出了名為「Dalai Llama」的軟件,取達賴喇嘛(智慧深似海,Dalai Lama)的諧音以及「LLaMA」的詞彙本身。這款軟件結合了「llama」和「alpaca」這兩款開源模型,並允許用戶根據設備的資源選擇適用的模型大小。模型越大,輸出結果就越好,但是會佔用更多資源;反之,小型模型能夠快速回答,但是答案可能會受到一定的限制。因此,「Dalai Llama」的出現為用戶提供了更多的選擇,使他們能夠選擇最適合自己需求和設備的模型。


如何安裝「Dalai Llama」?

如你能閱讀英文,你可參閱開發者說明文件,讀取最新版本:



相反,如果你希望閱讀中文版本的說明文件(畢竟我們是一個以翻譯為主的網頁),我們已經為你準備好了,請細閱以下說明:



「Dalai Llama」中文安裝說明(純文字)

「Dalai Llama」中文安裝說明(保留格式——超連結(建議閱讀))




結語

隨著「LLaMA」的面世和不斷發展,我們或許已經迎來了文字AI(LLM)不再被幾間大公司中央控制的時代。正如Stable Diffusion面世的一刻,OpenAI個DALL-E即刻變得過時,因為民間已經可以自己去微調AI以做一些大公司不想你做的事情。這種趨勢是值得關注的,因為它可能為我們帶來更多的機會和挑戰。


隨著越來越多的開源模型和工具的出現,越來越多的人開始探索和開發自己的AI應用。他們可以通過微調現有的模型或設計新的模型,以滿足自己的需求和應用場景。這樣的趨勢使得AI開發變得更加去中心化,使得更多人都有機會參與其中,促進了創新和進步。


參考資料


  1. Cocktailpeanut. (無日期)。Dalai。取自 https://github.com/cocktailpeanut/dalai

  2. GIGAZINE. (2023年3月14日)。Dalai LLaMa。取自 https://gigazine.net/news/20230314-dalai-llama/

  3. Facebook AI. (無日期)。LLaMa: Open and efficient foundation language models。取自 https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/

  4. LIHKG. (無日期)。LLaMa 有趣的一個開源語言模型。取自 https://lihkg.com/thread/3336997

  5. Qwopqwop200. (無日期)。GPTQ-for-LLaMa。取自 https://github.com/qwopqwop200/GPTQ-for-LLaMa

  6. Ggerganov. (無日期)。llama.cpp。取自 https://github.com/ggerganov/llama.cpp/

  7. T.co. (無日期)。取自 https://t.co/XDbvM2U5GY

  8. T.co. (無日期)。取自 https://t.co/JjEhdzJ2B9

  9. CRFM Stanford. (2023年3月13日)。Alpaca。取自 https://crfm.stanford.edu/2023/03/13/alpaca.html

  10. Tloen. (無日期)。Alpaca-lora。取自 https://github.com/tloen/alpaca-lora

  11. Antimatter15. (無日期)。Alpaca.cpp。取自 https://github.com/antimatter15/alpaca.cpp/



企業客戶


即刻聯絡我們,商議適合貴公司的解決方案。



加入我們


在洋甘菊翻譯,我們重視每一位同事的經驗和專業知識。歡迎各位熱愛語言的朋友加入洋甘菊翻譯的團隊,無論已有高超造藝,希望揮灑金筆,抑或初出茅廬,期待從文字中窺探世界,只要你有一腔熱誠,都歡迎你成為我們的一份子,與我們一同提供高品質的翻譯服務,打破語言的隔閡。我們誠摯期待你的加入!


523 次查看0 則留言

Comments


bottom of page