![]()
Jack Dorsey是Twitter(現名X)、Square(現名Block)和Bluesky的創始人。今年7月,他在X上發布了一條頗為神秘的聲明:"goose + qwen3-coder = wow"。
從那時起,人們對Goose和Qwen3-coder的興趣不斷增長。Goose由Dorsey的公司Block開發,是一個開源智能體框架,類似于Claude Code。Qwen3-coder是一個專注于編程的大語言模型,類似于Sonnet-4.5。兩者都是免費的。
互聯網上的說法是,它們結合在一起可以創建一個完全免費的Claude Code競爭對手。但真的可以嗎?我決定親自驗證一下。
本文是探討Goose(智能體框架)、Ollama(大語言模型服務器)和Qwen3-coder(大語言模型)集成的三篇文章中的第一篇。
在本文中,我將展示如何讓所有工具正常運行。在下一篇文章中,我將深入解釋這三個工具在AI智能體編程過程中各自扮演的角色。最后,我將嘗試使用這些工具構建一個功能完整的iPad應用程序。
好,讓我們開始吧。我在Mac上構建,但你也可以在Windows或Linux機器上安裝這三個工具。
安裝步驟
你需要先下載Goose和Ollama。稍后將在Ollama中下載Qwen3-coder模型。
我最初先下載并安裝了Goose,但無法讓它與Ollama通信。你能猜到我做錯了什么嗎?沒錯,我還沒有下載和設置Ollama。
我的建議是先安裝Ollama。我使用的是MacOS,但你可以使用任何你喜歡的系統。你也可以安裝命令行版本的Ollama,但我更喜歡應用程序版本。
下載Ollama后,雙擊安裝程序。應用程序加載后,你會看到一個類似聊天的界面。右側會顯示模型,我的默認是gpt-oss-20b。
點擊它,會彈出一個模型列表。我選擇了Qwen3-coder:30b,其中30b指的是模型參數數量。這是一個經過編碼優化的模型,擁有約300億個參數。
注意,模型在被要求回答提示之前不會下載。我輸入了"test"這個詞,模型就開始下載了。
請注意,這個模型有17GB,所以要確保你有足夠的存儲空間。這一要求凸顯了整個項目的一大優勢:你的AI是本地運行的,在你的機器上運行,你不會向云端發送任何內容。
安裝Qwen3-coder后,你需要讓Ollama實例對計算機上的其他應用程序可見。從菜單欄的Ollama菜單中選擇設置。
打開"Expose Ollama to the network"選項。我讓Ollama安裝在.ollama目錄中。這種方法會隱藏目錄,所以請記住那里有一個17GB的文件。
最后,我將上下文長度設置為32K。我的機器有128GB RAM,所以如果開始耗盡上下文,我會提高它。但我想看看這種方法在較小的上下文空間下效果如何。
另外請注意,我沒有登錄Ollama。你可以創建一個賬戶并使用一些云服務。但我們試圖完全免費且完全在本地計算機上完成,所以我盡可能避免登錄。
Ollama和Qwen3-coder的設置就是這樣。使用Goose時需要啟動并運行Ollama,但在此之后你可能不會與它有太多交互。
配置Goose
接下來,讓我們安裝Goose。運行安裝程序。與Ollama一樣,有多個Goose實現方式。我選擇了MacOS Apple Silicon桌面版本。
首次啟動Goose時,會看到歡迎屏幕。你有幾個配置選項,但由于我們要實現全免費設置,請轉到"Other Providers"部分并點擊"Go to Provider Settings"。
在這里,你會看到一個非常長的各種智能體工具和大語言模型列表。向下滾動,找到Ollama并點擊配置。
完成該步驟后,系統會要求你配置Ollama。這里我有點困惑,因為我以為"配置Ollama"意味著我實際上在配置Ollama。并非如此。你實際上是在配置連接,在這種情況下是連接到Ollama。
系統會要求你選擇一個模型。再次選擇qwen3-coder:30b。
選擇Ollama和qwen3-coder:30b后,點擊選擇模型。
恭喜你!你現在已經安裝并配置了一個在計算機上運行的本地編碼智能體。
使用體驗
與幾乎所有其他聊天機器人一樣,你需要在提示區域輸入提示。但首先,最好讓Goose知道你將使用的目錄。在我的初始測試中,我將Goose設置為從臨時文件夾工作。
作為測試,我使用了我的標準測試挑戰——構建一個簡單的WordPress插件。在第一次運行中,Goose/Qwen3失敗了。它生成了一個插件,但無法工作。
在第二次和第三次嘗試中,在向Goose/Qwen3解釋了什么不起作用之后,它又失敗了兩次。
到第三次嘗試時,它運行了隨機化,但沒有完全遵循指示,這在某種程度上違背了原始插件的全部目的。
Goose花了五輪才做對,而且它對自己預期的正確性非常滿意。
我對這種方法的看法是什么?Goose花了五次嘗試才讓我的小測試正常工作,我對此感到失望。當我用這個任務測試一堆免費聊天機器人時,除了Grok和早期版本的Gemini,所有機器人都在第一次嘗試時就完成了我的小測試。
但聊天機器人編碼和智能體編碼之間的一個重大區別是,像Claude Code和Goose這樣的智能體編碼工具可以處理實際的源代碼。因此,重復修正確實會改進實際的代碼庫。
我的同事Tiernan Ray在他的16GB M1 Mac上嘗試Ollama時,發現性能難以忍受。但我在配備128GB RAM的M4 Max Mac Studio上運行這個設置。我甚至同時打開了Chrome、Fusion、Final Cut、VS Code、Xcode、Wispr Flow和Photoshop。
到目前為止,我只運行了一個相當簡單的編程測試,但我發現整體性能相當不錯。我沒有看到在我的Mac Studio上運行Goose的本地實例與使用AI公司龐大基礎設施的本地/云混合產品(如Claude Code和OpenAI Codex)在提示響應時間上有明顯差異。
但這些仍然是第一印象。一旦我用一個大項目進行測試,我將能夠更好地告訴你,我是否認為這個免費解決方案可以取代昂貴的替代品,如Claude Code的每月100美元Max計劃或OpenAI的每月200美元Pro計劃。
你是否嘗試過使用Goose、Ollama或Qwen等工具在本地運行專注于編碼的大語言模型?設置進展如何,你在什么硬件上運行?如果你使用過Claude或OpenAI Codex等云選項,本地性能和輸出質量相比如何?請在下面的評論中告訴我們。
Q&A
Q1:Goose和Qwen3-coder是什么?它們是免費的嗎?
A:Goose是由Block公司開發的開源智能體框架,類似于Claude Code。Qwen3-coder是一個專注于編程的大語言模型,類似于Sonnet-4.5。兩者都是完全免費的,可以在本地計算機上運行,不需要向云端發送任何數據。
Q2:使用Goose和Qwen3-coder需要什么樣的硬件配置?
A:這取決于你的使用需求。測試顯示,在16GB RAM的M1 Mac上性能可能難以忍受,但在配備128GB RAM的M4 Max Mac Studio上運行流暢。Qwen3-coder:30b模型大小為17GB,所以至少需要足夠的存儲空間。建議使用性能較好的硬件以獲得更好的體驗。
Q3:Goose和Qwen3-coder的編碼效果如何?能替代付費工具嗎?
A:在初步測試中,Goose需要五次嘗試才能完成一個簡單的WordPress插件,表現不如某些免費聊天機器人。但智能體編碼工具的優勢在于可以直接處理源代碼,重復修正會改進代碼庫。從響應速度看,本地運行與Claude Code等付費工具差異不大。是否能完全替代付費工具還需要更大項目的驗證。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.