大家好,我是 Ai 學(xué)習(xí)的老章
Ollama 是咱公眾號(hào)常客
![]()
我發(fā)現(xiàn) Ollama 有有了新模式——不用本地計(jì)算資源,直接運(yùn)行云模型
首先自然是安裝 Ollama 客戶端:https://ollama.com/
然后注冊賬戶:https://ollama.com/signin
![]()
啟動(dòng) Ollama 之后,命令行先來看看都有哪些模型可以云端運(yùn)行
curl https://ollama.com/api/tags我找了 json 可視化工具,看的更清楚
![]()
gpt-oss:20b-cloudgpt-oss:120b-clouddeepseek-v3.1:671b-cloudqwen3-coder:480b-cloud
deepseek-v3.1 都給,真豪橫啊
然后從命令行ollama signin登錄,目前預(yù)覽階段,自動(dòng)跳轉(zhuǎn),不太友好
![]()
我還是喜歡直接在 app 操作,點(diǎn)擊 Signin自動(dòng)跳轉(zhuǎn)
![]()
然后右下角選擇后綴有-cloud 的模型即可開始聊天
![]()
最后,最重要的 這個(gè)云端模型還可以 API 調(diào)用
首先創(chuàng)建 Key:https://ollama.com/settings/keys 復(fù)制備用
![]()
然后 python 中就可以調(diào)用了
from ollama import Client client = Client( host="https://ollama.com", headers={'Authorization': ' ' } ) messages = [ { 'role': 'user', 'content': 'Why is the sky blue?', }, ] for part in client.chat('gpt-oss:120b', messages=messages, stream=True): print(part['message']['content'], end='', flush=True)也可以配置到其他工具中,比如
API base url:https://ollama.com/api/chat
api key填上面創(chuàng)建并復(fù)制好的,模型名稱選上面那幾個(gè)-cloud的
curl https://ollama.com/api/chat \ -H "Authorization: Bearer " \ -d '{ "model": "gpt-oss:120b", "messages": [{ "role": "user", "content": "Why is the sky blue?" }], "stream": false }'以上,本文完。
對(duì)了,這四個(gè)模型的免費(fèi)額度不確定有多少,畢竟預(yù)覽階段,能薅盡薅吧。
DeepSeek-V3.1:671B-cloud還是很香的。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.