- 了解在您的電腦上執行 Qwen AI 的基本技術要求。
- 請按照詳細步驟有效地安裝 Ollama 和 Docker。
- 了解如何設定使用者友善的圖形介面來本地管理 AI。
人工智慧已成為當今科技領域不可或缺的工具。 Qwen AI,由開發 阿里巴巴集團,成為最具創新性和最強大的替代方案之一。儘管許多人工智慧解決方案需要永久的互聯網連接, Qwen AI 可以在 Windows 11 電腦上本機執行,增強使用者控制權和隱私。
並且在本地使用 Qwen AI 不僅可以提高對該工具的持續訪問,而且 無需將敏感資料暴露給雲端服務。這種方法非常適合在日常工作中尋求更多靈活性的程式設計師、研究人員和高級使用者。接下來我們將分解 所有你必須知道的 安裝並開始有效使用 Qwen AI。
在我們的電腦上本地安裝 Qwen AI 的要求

在開始之前,您需要 驗證您的電腦是否符合執行 Qwen AI 的要求.
- 至 小型號: 在諸如那些少於 十億億 參數,一台計算機至少有 16 GB的RAM 即使沒有強大的 GPU,這可能也足夠了。
- 至 更高級的模型:對於更高容量的模型,例如具有 20 億個或更多參數的模型,將需要具有多個顯示卡的高效能電腦。 實時傳輸 以及優於 64 GB的RAM.
很多 硬體資源也取決於您要安裝的特定型號。。更輕的型號,例如 Qwen2.5-0.5b 非常適合基本任務,而更高級的版本如 Qwen2.5-7b 需要更強大的配置。在決定安裝哪種型號之前,評估您的設備非常重要。
安裝必要的工具

要在本地運行 Qwen AI, 您需要安裝兩個關鍵工具:Ollama y 碼頭工人。該過程詳細說明如下:
- 奧拉馬: 這個免費的開源工具允許您直接在電腦上運行語言模型。能 從下載 您的官方網站,選擇與 Windows 相容的版本並按照安裝程式說明進行操作。
- 泊塢窗: Docker 可讓您建立容器來有效地運行應用程式。 從下載 它的官方頁面,建立一個帳戶並按照系統上的安裝步驟進行操作。
如何安裝 Qwen AI 模型

配置 Ollama 和 Docker 後, 下一步是安裝 Qwen AI 模型。摘自 Ollama 官方網站, 進入 模型部分 並選擇要使用的模型。例如,如果您決定使用 2.5b 參數安裝 Qwen0.5,請使用網站上列出的相應命令。
在電腦上開啟命令終端機 (CMD),貼上命令並按 Enter。過程可能需要幾分鐘,具體取決於模型的大小和連接速度。完成後,您將能夠使用特定的運行命令直接從終端啟動查詢。
設定圖形介面
對於那些喜歡 更多的視覺體驗,可以使用 Docker 安裝 Web 介面。 在CMD中運行以下命令 要在 Docker 中建立容器:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
此容器 將在您的瀏覽器中開啟使用者介面,可在 3000端口。在這裡您可以管理您的 AI 模型、開始對話並儲存聊天記錄。
其他相容型號

除了 Qwen AI,Ollama 和 Docker 還允許安裝其他模型,例如 駱駝, 寒冷西北風 y 深度搜尋。每種方法都有自己的特點和優點,因此您可以根據您的特定需求探索新的選擇。
運行其他模型可以擴展系統的功能,讓您能夠執行 無需依賴外部服務即可進行更複雜的分析和高階任務.
對於那些希望在不依賴互聯網或外部伺服器的情況下充分利用人工智慧的人來說,在本地運行 Qwen AI 提供了強大的解決方案。這個過程不僅可以確保更大的隱私,而且 讓您根據每個使用者的具體需求自訂模型的使用.
雖然這需要一些技術知識, 結果是值得的 對於那些想要利用這項革命性技術的人來說。
我是一名技術愛好者,已將自己的“極客”興趣變成了職業。出於純粹的好奇心,我花了 10 多年的時間使用尖端技術並修改各種程序。現在我專攻電腦技術和電玩遊戲。這是因為五年多來,我一直在為各種技術和視頻遊戲網站撰寫文章,力求以每個人都能理解的語言為您提供所需的資訊。
如果您有任何疑問,我的知識範圍涵蓋與 Windows 作業系統以及手機 Android 相關的所有內容。我對您的承諾是,我總是願意花幾分鐘幫助您解決在這個網路世界中可能遇到的任何問題。